banner

Nachricht

Sep 20, 2023

OODA-Schleife

Im Folgenden finden Sie eine Übersicht über kürzlich angekündigte GPT-Plattformen von Bedeutung – ausgewählt aus den exponentiellen Schlagzeilen über generative KI der letzten Monate. Es handelt sich um eine kuratierte Auswahl von *GPT- und *KI-Plattformen für die OODA Loop-Leserschaft – aus einem breiten Spektrum von Branchen. Von der IndexGPT-Patentanmeldung von JPMorgan bis zur Charlotte-KI von Crowdstrike – hier finden Sie einen Überblick über die Vielfalt der KI-Welt.

Quellcode:https://github.com/Significant-Gravitas/Auto-GPT

Um:Ein experimenteller Open-Source-Versuch, GPT-4 vollständig autonom zu machen.

#AutoGPT ist das neue disruptive Kind auf dem Markt – es kann die Argumentation von #ChatGPT auf umfassendere, komplexere Probleme anwenden, die Planung und mehrere Schritte erfordern.

Noch früh, aber sehr beeindruckend mit vielen Anwendungen im Gesundheits- und Biomedizinbereich.

Habe gerade #AgentGPT ausprobiert und darum gebeten … pic.twitter.com/ywFhtjxjYD

— Daniel Kraft, MD (@daniel_kraft) April 12, 2023

Was ist Auto-GPT und warum ist es wichtig?: Im Wesentlichen nutzt Auto-GPT die Vielseitigkeit der neuesten KI-Modelle von OpenAI, um online mit Software und Diensten zu interagieren und so Aufgaben wie X und Y „autonom“ auszuführen. Aber wie wir Wenn wir mit großen Sprachmodellen lernen, scheint diese Fähigkeit so groß wie ein Ozean, aber so tief wie eine Pfütze zu sein. Auto-GPT – das Sie vielleicht kürzlich in den sozialen Medien gesehen haben – ist eine Open-Source-App, die vom Spieleentwickler Toran Bruce Richards entwickelt wurde und die textgenerierenden Modelle von OpenAI, hauptsächlich GPT-3.5 und GPT-4, nutzt, um zu agieren. autonom.“

In dieser Autonomie liegt keine Magie. Auto-GPT kümmert sich einfach um die Nachverfolgung einer ersten Eingabeaufforderung der OpenAI-Modelle und fragt und beantwortet sie, bis eine Aufgabe abgeschlossen ist. Auto-GPT besteht im Grunde aus GPT-3.5 und GPT-4 gepaart mit einem Begleitbot, der GPT-3.5 und GPT-4 anweist, was zu tun ist. Ein Benutzer teilt Auto-GPT sein Ziel mit und der Bot wiederum verwendet GPT-3.5 und GPT-4 sowie mehrere Programme, um jeden Schritt auszuführen, der zum Erreichen des von ihm gesetzten Ziels erforderlich ist.

Was Auto-GPT einigermaßen leistungsfähig macht, ist seine Fähigkeit, sowohl online als auch lokal mit Apps, Software und Diensten wie Webbrowsern und Textverarbeitungsprogrammen zu interagieren. Wenn Auto-GPT beispielsweise eine Aufforderung wie „Helfen Sie mir, mein Blumengeschäft auszubauen“ erhält, kann es eine einigermaßen plausible Werbestrategie entwickeln und eine einfache Website erstellen. (1)

Informationen zum Erstellen Ihres eigenen Auto-GPT-KI-Agenten finden Sie unter: https://www.tomshardware.com/how-to/auto-gpt-ai-agent

Quellcode:N/A (nur Patentanmeldung)

Um: JPMorgan Chase hat eine Markenanmeldung für IndexGPT eingereicht, einen Chatbot, der Fragen zu Finanzen beantworten soll. Berichten zufolge soll der Bot für Werbe- und Marketingdienstleistungen, einen Index von Wertpapierwerten sowie Online-Finanzinformationen und Anlageberatung verwendet werden. (2)

JPMorgan arbeitet aktiv am Rivalen #ChatGPT und meldet die Marke „IndexGPT“ an. https://t.co/VUo9eZ1vTP

– Cointelegraph (@Cointelegraph) 27. Mai 2023

Bildquelle: Coin Telegraph – JPMorgans Markenanmeldung für IndexGPT. Quelle: USPTO

JP Morgan reicht Patent für ChatGPT-Finanzklon IndexGPT ein: Der Finanzriese JPMorgan Chase hat Anfang des Monats eine Markenanmeldung für einen Chatbot mit Finanzthema namens IndexGPT eingereicht. Laut dem am 11. Mai beim Patent- und Markenamt der Vereinigten Staaten eingereichten Antrag soll der Chatbot für Werbe- und Marketingdienstleistungen, einen Index von Wertpapierwerten sowie Online-Finanzinformationen und Anlageberatung verwendet werden. „KI und der Rohstoff, der sie speist, nämlich Daten, werden für den zukünftigen Erfolg unseres Unternehmens von entscheidender Bedeutung sein“, sagte Jamie Dimon, CEO von JPMorgan Chase, im April in einem Brief an die Aktionäre. „Die Bedeutung der Implementierung neuer Technologien kann einfach nicht genug betont werden.“ In einer Februar-Umfrage von JP Morgan gaben mehr als die Hälfte der befragten institutionellen Händler an, dass künstliche Intelligenz und maschinelles Lernen die einflussreichsten Technologien für die Gestaltung der Zukunft des Handels in den nächsten drei Jahren sein würden.

Da JP Morgan versucht, künstliche Intelligenz in seinen Finanzsystemen zu nutzen, stellt das Unternehmen nach eigenen Angaben über 2.000 Datenmanager, Datenwissenschaftler und Ingenieure für maschinelles Lernen ein, um seine KI-Fähigkeiten auszubauen, und nennt diese „untrennbar mit cloudbasierten Systemen verbunden“. öffentliche oder private und digitale Möglichkeiten. „Native Cloud-basierte Ansätze werden letztendlich schneller und kostengünstiger sein, auf die neuesten KI-Techniken abgestimmt sein und uns einen einfachen Zugang zu sich ständig weiterentwickelnden Entwicklertools ermöglichen“, sagte Dimon. Die Finanzbranche war besonders an der Fähigkeit von KI zur Datenverarbeitung interessiert. Im März entwickelte Mayo Oshin, ein Ingenieur für künstliche Intelligenz in Großbritannien, einen nach Buffett benannten Bot zur Analyse großer Finanzdokumente. (3)

Quellcode:https://github.com/imartinez/privateGPT

Um: Interagieren Sie privat mit Ihren Dokumenten mithilfe der Leistungsfähigkeit von GPT, 100 % privat, ohne Datenlecks. Stellen Sie Fragen zu Ihren Dokumenten ohne Internetverbindung und nutzen Sie die Leistungsfähigkeit von LLMs. 100 % privat, zu keinem Zeitpunkt verlassen Daten Ihre Ausführungsumgebung. Sie können ohne Internetverbindung Dokumente aufnehmen und Fragen stellen.

PrivacyGPT https://t.co/w8XUa6d7nQ Keine Fütterung mehr von openai's RLHF aus eigenem Interesse. (Sie denken vielleicht, dass es keine große Sache ist, aber in naher Zukunft wird es so sein.) #chatGPT #privacy #PrivacyMatters #privacyGPT

— Felix Peña (@kaisen2350) 11. Mai

Was ist ein privates ChatGPT, das mit Ihren lokalen Dokumenten interagiert?: So praktisch ChatGPT auch ist, es hat seine Nachteile. Die Tatsache, dass Sie Ihre Daten über das Internet senden müssen, kann im Hinblick auf den Datenschutz ein Problem darstellen, insbesondere wenn Sie vertrauliche Dokumente verwenden. Darüber hinaus ist eine ständige Internetverbindung erforderlich, was in Gebieten mit schlechter Konnektivität ein Problem darstellen kann. Zum Glück gibt es eine Alternative. Sie können Ihr eigenes lokales Large Language Model (LLM) betreiben, das Ihnen die Kontrolle über Ihre Daten und Privatsphäre gibt. In diesem Artikel erfahren Sie, wie Sie ein privates ChatGPT erstellen, das mit Ihren lokalen Dokumenten interagiert und Ihnen so ein leistungsstarkes Tool zum Beantworten von Fragen und zum Generieren von Text bietet, ohne auf die Server von OpenAI angewiesen zu sein. Wir werden uns auch PrivateGPT ansehen, ein Projekt, das den Prozess der Erstellung eines privaten LLM vereinfacht.

Durch die Verwendung eines lokalen Sprachmodells und einer Vektordatenbank können Sie die Kontrolle über Ihre Daten behalten und den Datenschutz gewährleisten, während Sie gleichzeitig Zugriff auf leistungsstarke Sprachverarbeitungsfunktionen haben. Der Prozess erfordert möglicherweise etwas technisches Fachwissen, es stehen jedoch online zahlreiche Ressourcen zur Verfügung, die Ihnen den Einstieg erleichtern. Eine Lösung ist PrivateGPT, ein auf GitHub gehostetes Projekt, das alle oben genannten Komponenten in einem einfach zu installierenden Paket vereint. PrivateGPT umfasst ein Sprachmodell, ein Einbettungsmodell, eine Datenbank für Dokumenteinbettungen und eine Befehlszeilenschnittstelle. Es unterstützt verschiedene Arten von Dokumenten, darunter einfachen Text (.txt), durch Kommas getrennte Werte (.csv), Word (.docx und .doc), PDF, Markdown (.md), HTML, Epub und E-Mail-Dateien (.eml). und .msg). (4)

Informationen zum Erstellen eines privaten ChatGPT, das mit Ihren lokalen Dokumenten interagiert, finden Sie unter: https://bdtechtalks.com/2023/06/01/create-privategpt-local-llm/

Verfügbar um:https://www.notion.so/product/ai

Um: Notion AI ist eine neue Funktion für künstliche Intelligenz der Produktivitäts-App Notion. Notion AI soll Ihnen helfen, produktiver zu sein, indem es Ihre Arbeitsgewohnheiten versteht und Vorschläge zu deren Verbesserung macht.

Notion AI ist jetzt für jedermann verfügbar.

Keine Warteliste, keine „eingeschränkte Vorschau“.

Beginnen Sie: https://t.co/qKmTw6ieJP pic.twitter.com/JcQra1YbZf

– Notion (@NotionHQ) 22. Februar 2023

Die KI-Funktionen von Notion können jetzt von jedem genutzt werden: Sie können jetzt die KI-Funktionen der Notion-Notiz-App ausprobieren, die Ihnen dabei helfen sollen, Texte zu schreiben und zu verfeinern, wichtige Punkte in vorhandenen Notizen zusammenzufassen und Aufgabenlisten zu erstellen eine Ankündigung des Unternehmens. Notion begann im November mit dem Testen seines KI-Angebots, aber jetzt ist es für jeden mit einem Konto verfügbar und es ist keine Warteliste erforderlich.

Während die in die App integrierte KI Artikel aus dem Nichts schreiben kann (ich habe sie gebeten, einen Blog-Beitrag über die Notion AI-Ankündigung zu schreiben, und sie hat 385 Wörter ausgespuckt, von denen nur einige korrekt waren), wirbt das Unternehmen eher als solche ein „Gedankenpartner“. In seinem Ankündigungsbeitrag sagt das Unternehmen, dass eine der Funktionen, die Alpha-Tester am häufigsten nutzten, darin bestand, den von ihnen geschriebenen Text zu verbessern. Sie können beispielsweise Text markieren und Notion bitten, ihn in einem anderen Ton umzuschreiben, eine einfachere Sprache zu verwenden oder einfach einen Satz auszufüllen oder zu kürzen. (5)

Verfügbar um:Charlotte AI ist derzeit als Privatkundenvorschau verfügbar.

Um: „Ein neuer generativer KI-Sicherheitsanalyst, der die weltweit hochwertigsten Sicherheitsdaten verwendet und durch eine enge Feedbackschleife mit den branchenführenden Bedrohungsjägern, Managed Detection and Response-Operatoren und Incident Response-Experten von CrowdStrike kontinuierlich verbessert wird. Charlotte AI [ist die] Das erste Angebot, das auf unserer Charlotte-KI-Engine basiert, wird Benutzern aller Erfahrungsstufen helfen, ihre Fähigkeit zu verbessern, Sicherheitsverletzungen zu stoppen und gleichzeitig die Komplexität von Sicherheitsabläufen zu reduzieren. Kunden können Fragen in einfachem Englisch und Dutzenden anderen Sprachen stellen, um intuitive Antworten von der CrowdStrike Falcon-Plattform zu erhalten. " (6)

CrowdStrike ist Vorreiter beim Einsatz künstlicher Intelligenz, seit wir vor über 10 Jahren erstmals einen KI-gestützten Schutz als Ersatz für signaturbasierte Antivirenprogramme eingeführt haben, und wir haben ihn weiterhin umfassend in unsere Plattform integriert.

🤝 Lernen Sie Charlotte AI kennen. https://t.co/mWKH0tcT7e

– CrowdStrike (@CrowdStrike) 30. Mai 2023

Lernen Sie Charlotte kennen, den neuen generativen KI-Assistenten von CrowdStrike – Charlotte AI ist der neueste sicherheitsbasierte generative KI-Assistent, der auf den Markt kommt: CrowdStrike springt auf den Zug der generativen künstlichen Intelligenz (KI) auf, während das Unternehmen seinen eigenen generativen KI-Sicherheitsassistenten testet. bekannt als Charlotte AI. Charlotte AI soll beispielsweise Fragen beantworten, ob ein System für eine bestimmte Schwachstelle anfällig ist, und empfohlene Maßnahmen bereitstellen, so das Unternehmen. Es kann auch dazu veranlasst werden, schädliche Aktivitäten zu erkennen, wie z. B. seitliche Bewegungen über Windows-Computer hinweg. Ziel ist es, weniger erfahrenen IT- und Sicherheitsexperten die Informationen zu liefern, die sie über ihre Umgebungen und den Sicherheitsstatus benötigen, um schneller bessere Entscheidungen treffen zu können.

Beispielfragen sind:

In den letzten Monaten haben mehrere Unternehmen – darunter Microsoft und Google – generative KI-Assistenten in ihre Sicherheitsplattformen integriert. Diese Assistenten bieten Sicherheitsanalysten die Möglichkeit, große Mengen an Sicherheitsdaten in natürlicher Sprache abzufragen und Korrelationen zwischen verschiedenen Datenquellen herzustellen. In diesem Sinne stellt Charlotte AI eine Schnittstelle in natürlicher Sprache zur Falcon-Plattform bereit, sodass Sicherheitsanalysten „unabhängig von ihrem Erfahrungsniveau oder ihrer Organisationsgröße ein Power-User der Falcon-Plattform sein können“, so das Unternehmen. (7)

Quellcode: N / A; Die verschiedenen LLMs, die für Experimente und Forschung verwendet werden, finden Sie im Abschnitt „Ressourcen“ dieses Whitepapers.

Um: FrugalGPT ist eine Variante des von OpenAI entwickelten GPT-Modells (Generative Pre-trained Transformer). Es ist als recheneffizientere und kostengünstigere Version von GPT mit geringerem Rechenaufwand konzipiert. Die Hauptidee von FrugalGPT besteht darin, eine leichtere und zugänglichere Version des GPT-Modells anzubieten, die die Bereitstellung und Nutzung in ressourcenbeschränkten Umgebungen ermöglicht. Durch die Reduzierung der Modellgröße und der Rechenkomplexität zielt FrugalGPT darauf ab, ein Gleichgewicht zwischen Leistung und Effizienz herzustellen.

FrugalGPT: So nutzen Sie LLMs kostengünstig

-LLM-Kaskade lernt, welche Kombinationen von LLMs für verschiedene Abfragen verwendet werden sollen, um Kosten zu senken/die Genauigkeit zu verbessern

- Entspricht der Leistung des besten individuellen LLM (GPT-4) bei 98 % Kostenreduzierung - Oder verbessert die Genauigkeit um 4 % bei gleichen Kosten https://t.co/z9W6E9Ke8o pic.twitter.com/mjYylbNslj

– John Nay (@johnjnay) 10. Mai 2023

FrugalGPT: Wie man große Sprachmodelle nutzt und gleichzeitig die Kosten senkt und die Leistung verbessert: Es gibt eine schnell wachsende Zahl großer Sprachmodelle (LLMs), die Benutzer gegen eine Gebühr abfragen können. Wir untersuchen die Kosten, die mit der Abfrage gängiger LLM-APIs, z. B. GPT-4, ChatGPT, J1-Jumbo, verbunden sind, und stellen fest, dass diese Modelle heterogene Preisstrukturen aufweisen, wobei die Gebühren um zwei Größenordnungen unterschiedlich sein können. Insbesondere die Verwendung von LLMs für große Abfrage- und Textsammlungen kann teuer sein. Aus diesem Grund skizzieren und diskutieren wir drei Arten von Strategien, die Benutzer nutzen können, um die mit der Verwendung von LLMs verbundenen Inferenzkosten zu reduzieren: 1) sofortige Anpassung, 2) LLM-Annäherung und 3) LLM-Kaskade. Als Beispiel schlagen wir FrugalGPT vor, eine einfache, aber flexible Instanziierung der LLM-Kaskade, die lernt, welche Kombinationen von LLMs für verschiedene Abfragen verwendet werden sollen, um Kosten zu senken und die Genauigkeit zu verbessern. Unsere Experimente zeigen, dass FrugalGPT mit der Leistung des besten einzelnen LLM (z. B. GPT-4) mit einer Kostenreduzierung von bis zu 98 % mithalten oder die Genauigkeit gegenüber GPT-4 bei gleichen Kosten um 4 % verbessern kann. Die hier vorgestellten Ideen und Erkenntnisse legen den Grundstein für eine nachhaltige und effiziente Nutzung von LLMs. (8)

Verfügbar um:Slack beschreibt viele Anwendungsfälle und Entwicklertools unter https://slack.com/blog/news/introducing-slack-gpt

Um: Slack integriert ein „konversationsbasiertes KI-Erlebnis“, mit dem Benutzer Arbeitsprozesse automatisieren und anpassen können, teilte das Unternehmen am Donnerstag mit. Slack GPT wird native KI-Funktionen umfassen, die auf bestimmte Arbeitsfunktionen wie Vertrieb, Marketing und IT ausgerichtet sind. Weitere Funktionen, darunter die ChatGPT-App für Slack, sind in der Betaversion verfügbar oder werden diesen Sommer eingeführt.

Salesforce kündigte heute SlackGPT an, ein neues generatives KI-gestütztes Erlebnis, das für die Slack-App geplant ist und bald veröffentlicht werden soll. https://t.co/Oep5K8yIGu

– VentureBeat (@VentureBeat) 4. Mai 2023

Slack GPT kommt, um zentrale Kommunikationsworkflows zu automatisieren: Mit den neuen Funktionen können Kunden Workflows ohne Code erstellen, die KI-Aktionen mit einfachen Eingabeaufforderungen einbetten, so Ali Rayl, SVP of Product bei Slack. Die Liste der Anbieter, die KI-Funktionen in bestehende Produkte integrieren, ist lang und wächst. Slack schließt sich Unternehmen wie Zoom, Atlassian, Stack Overflow und den drei größten Hyperscalern an. Auch Microsoft und Google haben ihre Effizienzsuiten mit generativen KI-Funktionen ausgestattet. Im März stellte Slack eine ChatGPT-App vor, die Benutzern in der Betaversion zur Verfügung steht. Laut Rayl bringt die heutige Ankündigung die generative KI jedoch näher an die Art und Weise heran, wie Benutzer mit Slack interagieren.

„Wovon wir in Zukunft sprechen, sind die nativen Integrationen mit verschiedenen Slack-Produktoberflächen“, sagte Rayl. Dazu gehören Kanalzusammenfassungen, Huddle-Transkripte, ein Texterstellungstool namens Canvas und die Erstellung von Workflows ohne Code. Mit Slack GPT können Benutzer ein Sprachmodell ihrer Wahl integrieren, etwa GPT von OpenAI, Claude von Anthropic „oder in Zukunft das proprietäre LLM von Salesforce“, sagte Rayl. Als Teil des Slack GPT-Erlebnisses haben Benutzer Zugriff auf die Einstein GPT-App für Slack, eine Konversationsschnittstelle zur Verbindung der Kollaborationsplattform mit dem Customer 360-System von Salesforce.

Mit den neuen Funktionen können Benutzer das generative KI-Toolkit für bestimmte Funktionen anpassen. Mitarbeiter im Kundenservice erhalten beispielsweise Zugriff auf KI-generierte Lösungen und Antworten. Sie werden außerdem in der Lage sein, automatisch Fallzusammenfassungen zu generieren, um sie in Kanälen und Canvases zu teilen. Entwickler und IT-Mitarbeiter, die die Funktionen nutzen, könnten Kanalaktivitäten automatisch scannen und die Ursachenanalyse zusammenfassen, um das Vorfallmanagement zu verbessern.

Trotz des breiten Interesses an generativer KI bleiben Fragen zum Datenschutz bestehen, da der Erfolg der Systeme von den Daten abhängt, die sie aufnehmen. In einer per E-Mail verschickten Erklärung teilte Slack mit, dass alle Apps in seinem Verzeichnis vor der öffentlichen Verbreitung einer gründlichen Prüfung unterzogen werden. „Slack GPT basiert auf der sicheren Plattform von Slack, die eine Vielzahl von Einstellungen und Kontrollen bietet, damit unsere Kunden die richtigen Entscheidungen für ihre eigenen Sicherheits- und Compliance-Anforderungen treffen können“, sagte das Unternehmen in einer per E-Mail versandten Erklärung. „Dazu gehört auch, dass Administratoren einen App-Genehmigungsprozess implementieren können, sodass keine App ohne ihre Erlaubnis installiert werden kann.“ (9)

Verfügbar um:Weitere Informationen finden Sie unter Bloomberg.com/company oder fordern Sie eine Demo an.

Um: „Bloomberg… hat ein Forschungspapier veröffentlicht, in dem die Entwicklung von BloombergGPTTM, einem neuen groß angelegten generativen künstlichen Intelligenzmodell (KI), detailliert beschrieben wird. Dieses große Sprachmodell (LLM) wurde speziell auf eine breite Palette von Finanzdaten trainiert, um eine Vielzahl von Daten zu unterstützen Aufgaben der Verarbeitung natürlicher Sprache (NLP) in der Finanzbranche. (10)

ChatGPT ist beeindruckend, aber die Industrie benötigt speziellere Tools. Betreten Sie #BloombergGPT und bringen Sie KI an die Wall Street und in die Finanzwelt. @mdredze von @JHUCompSci spricht über seine Arbeit am Projekt und die Zukunft domänenspezifischer Sprachmodelle:https://t.co/VhsBxaHdAF

— Johns Hopkins Engineering (@HopkinsEngineer) 1. Juni 2023

Wir stellen BloombergGPT vor, Bloombergs großes Sprachmodell mit 50 Milliarden Parametern, das von Grund auf speziell für den Finanzbereich entwickelt wurde: Seit mehr als einem Jahrzehnt ist Bloomberg Vorreiter bei der Anwendung von KI, maschinellem Lernen und NLP im Finanzbereich. Heute unterstützt Bloomberg eine sehr große und vielfältige Reihe von NLP-Aufgaben, die von einem neuen finanzbewussten Sprachmodell profitieren werden. Bloomberg-Forscher haben einen gemischten Ansatz entwickelt, der Finanzdaten mit allgemeinen Datensätzen kombiniert, um ein Modell zu trainieren, das erstklassige Ergebnisse bei Finanz-Benchmarks erzielt und gleichzeitig die Wettbewerbsleistung bei allgemeinen LLM-Benchmarks aufrechterhält.

Um diesen Meilenstein zu erreichen, arbeitete die ML-Produkt- und Forschungsgruppe von Bloomberg mit dem AI-Engineering-Team des Unternehmens zusammen, um einen der bislang größten domänenspezifischen Datensätze zu erstellen und dabei auf die vorhandenen Ressourcen des Unternehmens für die Datenerstellung, -sammlung und -kuration zurückzugreifen. Als Finanzdatenunternehmen haben die Datenanalysten von Bloomberg über einen Zeitraum von vierzig Jahren Dokumente in Finanzsprache gesammelt und gepflegt. Das Team nutzte dieses umfangreiche Archiv an Finanzdaten, um einen umfassenden 363-Milliarden-Token-Datensatz zu erstellen, der aus englischen Finanzdokumenten besteht.

Diese Daten wurden mit einem öffentlichen Datensatz von 345 Milliarden Token erweitert, um einen großen Trainingskorpus mit über 700 Milliarden Token zu erstellen. Mithilfe eines Teils dieses Trainingskorpus trainierte das Team ein kausales Sprachmodell mit 50 Milliarden Parametern, das nur einen Decoder umfasst. Das resultierende Modell wurde anhand bestehender finanzspezifischer NLP-Benchmarks, einer Reihe interner Bloomberg-Benchmarks und breiter Kategorien allgemeiner NLP-Aufgaben aus beliebten Benchmarks (z. B. BIG-bench Hard, Wissensbewertungen, Leseverständnis und Sprachaufgaben) validiert. . Bemerkenswert ist, dass das BloombergGPT-Modell bestehende offene Modelle ähnlicher Größe bei Finanzaufgaben deutlich übertrifft, während es bei allgemeinen NLP-Benchmarks immer noch gleichwertig oder besser abschneidet.

Tabelle 1. Wie BloombergGPT in zwei großen Kategorien von NLP-Aufgaben abschneidet: finanzspezifisch und allgemein. (10)

BloombergGPT: Ein großes Sprachmodell für das Finanzwesen: Der Einsatz von NLP im Bereich der Finanztechnologie ist breit gefächert und komplex, wobei die Anwendungen von Stimmungsanalyse und Erkennung benannter Entitäten bis hin zur Beantwortung von Fragen reichen. Große Sprachmodelle (LLMs) haben sich bei einer Vielzahl von Aufgaben als effektiv erwiesen; In der Literatur wurde jedoch kein auf den Finanzbereich spezialisiertes LLM beschrieben. In dieser Arbeit stellen wir BloombergGPT vor, ein Sprachmodell mit 50 Milliarden Parametern, das auf einer Vielzahl von Finanzdaten trainiert wird. Wir erstellen einen 363-Milliarden-Token-Datensatz auf der Grundlage der umfangreichen Datenquellen von Bloomberg, vielleicht der bisher größte domänenspezifische Datensatz, ergänzt durch 345 Milliarden Token aus Allzweck-Datensätzen. Wir validieren BloombergGPT anhand von Standard-LLM-Benchmarks, offenen Finanz-Benchmarks und einer Reihe interner Benchmarks, die unsere beabsichtigte Nutzung am genauesten widerspiegeln. Unser Training mit gemischten Datensätzen führt zu einem Modell, das bestehende Modelle für Finanzaufgaben deutlich übertrifft, ohne die Leistung bei allgemeinen LLM-Benchmarks zu beeinträchtigen. Darüber hinaus erläutern wir unsere Modellierungsoptionen, den Trainingsprozess und die Bewertungsmethodik. Wir veröffentlichen Schulungschroniken (Anhang C), in denen unsere Erfahrungen bei der Schulung von BloombergGPT detailliert beschrieben werden. (11)

Dieses von ChatGPT inspirierte große Sprachmodell spricht fließend Finanzen: Mark Dredze, außerordentlicher Professor für Informatik an der Whiting School of Engineering der Johns Hopkins University und Gastforscher bei Bloomberg, war Teil des Teams, das [bloombergGPT] erstellt hat. Dredze ist außerdem der erste Forschungsdirektor (Foundations of AI) in der neuen AI-X Foundry am Johns Hopkins. Der Hub sprach mit Dredze über BloombergGPT und seine umfassenderen Auswirkungen auf die KI-Forschung an der Johns Hopkins.

Was waren die Ziele des BloombergGPT-Projekts?

Viele Menschen haben ChatGPT und andere große Sprachmodelle gesehen, bei denen es sich um beeindruckende neue Technologien der künstlichen Intelligenz mit enormen Fähigkeiten zur Sprachverarbeitung und Reaktion auf die Anfragen der Menschen handelt. Das Potenzial dieser Modelle, die Gesellschaft zu verändern, ist klar. Bisher konzentrieren sich die meisten Modelle auf allgemeine Anwendungsfälle. Wir benötigen jedoch auch domänenspezifische Modelle, die die Komplexität und Nuancen einer bestimmten Domäne verstehen. Während ChatGPT für viele Einsatzzwecke beeindruckend ist, benötigen wir spezielle Modelle für Medizin, Wissenschaft und viele andere Bereiche. Es ist nicht klar, was die beste Strategie für den Aufbau dieser Modelle ist.

In Zusammenarbeit mit Bloomberg sind wir dieser Frage nachgegangen, indem wir ein englischsprachiges Modell für den Finanzbereich erstellt haben. Wir wählten einen neuartigen Ansatz und erstellten einen umfangreichen Datensatz mit finanzbezogenem Text und kombinierten ihn mit einem ebenso großen Datensatz mit allgemeinem Text. Der resultierende Datensatz umfasste etwa 700 Milliarden Token, was etwa dem 30-fachen der Größe des gesamten Textes in Wikipedia entspricht.

Wir haben anhand dieses kombinierten Datensatzes ein neues Modell trainiert und es in einer Reihe von Sprachaufgaben für Finanzdokumente getestet. Wir haben festgestellt, dass BloombergGPT bestehende Modelle ähnlicher Größe bei Finanzaufgaben deutlich übertrifft. Überraschenderweise schnitt das Modell bei allgemeinen Benchmarks immer noch auf Augenhöhe ab, obwohl wir uns zum Ziel gesetzt hatten, ein domänenspezifisches Modell zu erstellen.

Warum braucht die Finanzwelt ein eigenes Sprachmodell?

Während die jüngsten Fortschritte bei KI-Modellen aufregende neue Anwendungen für viele Bereiche gezeigt haben, rechtfertigen die Komplexität und die einzigartige Terminologie des Finanzbereichs ein domänenspezifisches Modell. Es ist nicht unähnlich zu anderen Spezialgebieten wie der Medizin, die Vokabeln enthalten, die in allgemeinen Texten nicht vorkommen. Ein finanzspezifisches Modell wird in der Lage sein, bestehende Finanz-NLP-Aufgaben wie Stimmungsanalyse, Erkennung benannter Entitäten, Nachrichtenklassifizierung und Beantwortung von Fragen zu verbessern. Wir gehen jedoch auch davon aus, dass domänenspezifische Modelle neue Möglichkeiten eröffnen werden.

Wir stellen uns beispielsweise vor, dass BloombergGPT Anfragen von Finanzfachleuten in natürlicher Sprache in eine gültige Bloomberg Query Language (BQL) umwandelt, ein unglaublich leistungsstarkes Tool, das es Finanzfachleuten ermöglicht, Daten über verschiedene Wertpapierklassen schnell zu lokalisieren und mit ihnen zu interagieren. Wenn der Benutzer also fragt: „Besorgen Sie mir den letzten Preis und die Marktkapitalisierung für Apple“, gibt das System get(px_last,cur_mkt_cap) for(['AAPL US Equity']) zurück. Mithilfe dieser Codefolge können sie die resultierenden Daten schnell und einfach in Tools für Datenwissenschaft und Portfoliomanagement importieren.

Was haben Sie beim Bau des neuen Modells gelernt?

Der Bau dieser Modelle ist nicht einfach, und es müssen enorm viele Details richtig gemacht werden, damit sie funktionieren. Wir haben viel aus der Lektüre von Artikeln anderer Forschungsgruppen gelernt, die Sprachmodelle erstellt haben. Um der Community etwas zurückzugeben, haben wir einen Artikel mit über 70 Seiten geschrieben, in dem wir detailliert beschreiben, wie wir unseren Datensatz erstellt haben, welche Entscheidungen in die Modellarchitektur einflossen, wie wir das Modell trainiert haben und eine umfassende Bewertung des resultierenden Modells. Wir haben außerdem detaillierte „Trainingschroniken“ veröffentlicht, die eine narrative Beschreibung des Modelltrainingsprozesses enthalten. Unser Ziel ist es, so offen wie möglich darüber zu sprechen, wie wir das Modell erstellt haben, um andere Forschungsgruppen zu unterstützen, die möglicherweise ihre eigenen Modelle erstellen möchten. (12)

Auto-GPT, kurz für Automatic Generative Pre-trained Transformer, ist ein automatisierter Ansatz zum Trainieren und Optimieren des GPT-Modells (Generative Pre-trained Transformer). GPT ist ein hochentwickeltes, von OpenAI entwickeltes Sprachmodell, das sich durch die Generierung kohärenter und kontextrelevanter Texte auszeichnet. Auto-GPT führt dieses Modell weiter, indem es den Prozess der Feinabstimmung und Leistungssteigerung automatisiert.

Das Hauptziel von Auto-GPT besteht darin, die Effizienz und Effektivität des GPT-Modells durch automatisierte Techniken zu verbessern. Dies wird durch den Einsatz von Methoden wie Neural Architecture Search (NAS) und Reinforcement Learning (RL) erreicht.

Der Auto-GPT-Prozess umfasst mehrere Schritte:

Durch die Automatisierung des Trainings- und Optimierungsprozesses beschleunigt Auto-GPT das Experimentieren und Optimieren, was zu einer verbesserten Leistung des GPT-Modells bei bestimmten Aufgaben der Verarbeitung natürlicher Sprache (NLP) führt. Es eliminiert einen Großteil des manuellen Aufwands und des Rätselratens beim Finden der optimalen Modellkonfigurationen und macht es zu einem wertvollen Werkzeug für Forscher und Entwickler, die mit Sprachgenerierungs- und Sprachverständnisaufgaben arbeiten.

FrugalGPT ist ein Ansatz, der darauf abzielt, die Rechenanforderungen und den Ressourcenverbrauch des GPT-Modells (Generative Pre-trained Transformer) zu reduzieren und gleichzeitig ein angemessenes Leistungsniveau aufrechtzuerhalten. Hier ist ein allgemeiner Überblick über die Funktionsweise von FrugalGPT:

Die spezifischen Techniken und Ansätze, die in FrugalGPT verwendet werden, können variieren, und verschiedene Implementierungen können zusätzliche Methoden verwenden, um Recheneffizienz zu erreichen. Ziel ist es, ein Gleichgewicht zwischen Modellgröße, Rechenanforderungen und Leistung zu finden und so den Einsatz von GPT-basierten Modellen in Umgebungen mit eingeschränkten Ressourcen zu ermöglichen. Es ist wichtig zu beachten, dass mein Wissen auf Informationen basiert, die bis September 2021 verfügbar waren, und dass es seitdem möglicherweise weitere Entwicklungen oder Fortschritte im Zusammenhang mit FrugalGPT gegeben hat.

Soweit ich weiß, ist JP Morgan Chase im September 2021 eines der führenden Finanzinstitute, das aktiv in Technologien der künstlichen Intelligenz (KI) und des maschinellen Lernens (ML) im Finanzdienstleistungssektor investiert und diese implementiert. Obwohl ich keine Echtzeit-Updates bereitstellen kann, kann ich einen Überblick über einige der bemerkenswerten Initiativen von JP Morgan bis zu diesem Zeitpunkt geben:

Es ist wichtig zu beachten, dass sich der Finanzdienstleistungssektor ständig weiterentwickelt und wahrscheinlich neue Entwicklungen in den Bereichen KI und ML entstehen werden. Für die aktuellsten und umfassendsten Informationen zu den KI- und ML-Implementierungen von JP Morgan wird empfohlen, sich auf die neuesten Veröffentlichungen und Berichte zu beziehen.

Crowdstrike gilt als führend in der Technologiebranche, insbesondere im Bereich Cybersicherheit. Obwohl Crowdstrike nicht speziell auf den Sektor Technologie, Medien und Telekommunikation (TMT) ausgerichtet ist, hat es erhebliche Fortschritte bei der Anwendung von künstlicher Intelligenz (KI) und maschinellem Lernen (ML) für Cybersicherheitszwecke erzielt. Hier sind einige Gründe, warum Crowdstrike als führender Akteur bei der KI- und ML-Implementierung für die Cybersicherheit gilt:

Während Crowdstrikes Hauptaugenmerk auf Cybersicherheit liegt, hat sein KI- und ML-gesteuerter Ansatz Anerkennung gefunden und das Unternehmen als Branchenführer positioniert. Es ist wichtig zu beachten, dass der TMT-Sektor ein breites Spektrum an Unternehmen und Anwendungen umfasst und es möglicherweise andere Akteure in diesem Sektor gibt, die KI und ML auf unterschiedliche Weise nutzen. Die Bewertung der Führungsrolle bei der KI- und ML-Implementierung im TMT-Sektor erfordert möglicherweise die Berücksichtigung spezifischer Unterbranchen oder Anwendungsfälle innerhalb des breiteren Sektors.

Ja, Crowdstrike gilt weithin als führend beim Einsatz von künstlicher Intelligenz (KI) und maschinellem Lernen (ML) im Bereich Cybersicherheit. Der Ansatz von Crowdstrike besteht darin, KI- und ML-Technologien zu nutzen, um Cyber-Bedrohungen effektiver zu erkennen und darauf zu reagieren. Hier sind einige Gründe, warum Crowdstrike in diesem Bereich als führend gilt:

Der innovative Einsatz von KI und ML in der Cybersicherheit hat Crowdstrike Anerkennung und Marktführerschaft eingebracht. Es ist jedoch wichtig zu beachten, dass die Cybersicherheitslandschaft dynamisch ist und andere Unternehmen in diesem Bereich in unterschiedlichem Maße ebenfalls KI- und ML-Technologien einsetzen können. Die Bewertung der Führung in diesem Bereich kann die Berücksichtigung mehrerer Faktoren und Brancheneinschätzungen erfordern.

Notion und Slack sind beliebte Produktivitätstools, die unterschiedlichen Zwecken dienen und unterschiedliche Funktionen bieten. Hier ist ein Vergleich ihrer wichtigsten Merkmale:

Vorstellung:

Locker:

Zusammenfassend lässt sich sagen, dass Notion für seine Vielseitigkeit beim Notieren, Dokumentieren und Wissensmanagement bekannt ist, während Slack sich durch Kommunikation und Zusammenarbeit in Echtzeit auszeichnet. Notion bietet eine umfassende Plattform zum Organisieren von Informationen und Verwalten von Aufgaben, während Slack mehr auf die unmittelbare Kommunikation und Integration mit externen Tools ausgerichtet ist. Die Wahl zwischen beiden hängt von den spezifischen Bedürfnissen und Vorlieben des Benutzers oder Teams ab. In manchen Fällen können sie sich gegenseitig ergänzen, wobei Notion als Wissensdatenbank und Dokumentationstool dient, während Slack die Echtzeitkommunikation übernimmt.

Sowohl Notion als auch Slack integrieren Elemente der künstlichen Intelligenz (KI) in ihre Plattformen, ihr Einsatz von KI unterscheidet sich jedoch in Schwerpunkt und Anwendung. Hier ist ein Vergleich, wie KI in Notion und Slack eingesetzt wird:

Vorstellung:

Locker:

Im Hinblick auf die KI-Nutzung konzentriert sich Notion auf die Bereitstellung KI-gestützter Inhaltsvorschläge, die Unterstützung bei der Organisation der Wissensdatenbank und die Automatisierung der Datenextraktion. Slack hingegen legt Wert auf die KI-Integration durch Chatbots, intelligente Suche und intelligente Benachrichtigungen.

Es ist wichtig zu beachten, dass Tiefe und Umfang der KI-Integration im Laufe der Zeit variieren können, da sich beide Plattformen weiterentwickeln und neue Funktionen einführen. Die Beurteilung, welche Plattform KI besser nutzt, hängt letztlich von konkreten Anwendungsfällen und individuellen Vorlieben ab.

Quellcode: Über: Quellcode: Über: Bildquelle: Quellcode: Über: Verfügbar unter: Über: Verfügbar unter: Über: Quellcode: Über: Verfügbar unter: Über: Verfügbar unter: Über: Tabelle 1. Was waren die Ziele? des BloombergGPT-Projekts? Warum braucht die Finanzwelt ein eigenes Sprachmodell? Was haben Sie beim Bau des neuen Modells gelernt? „Wie funktioniert autoGPT?“ Problemformulierung Architektur Suche Bewertung und Auswahl Reinforcement Learning Iteration und Optimierung Feinabstimmung Wie funktioniert FrugalGPT? Modellkomprimierung Wissensdestillation Architekturmodifikationen Pruning und Sparsity Effiziente Inferenz „Wie ist JP Morgan führend im Finanzdienstleistungssektor bei Implementierungen von künstlicher Intelligenz und maschinellem Lernen?“ Quantitative Forschung und Handel Betrugserkennung und -prävention Kundenservice und Chatbots Risikobewertung und Compliance Datenanalyse und Entscheidungsfindung „Ist Crowdstrike führend im Technologie-, Medien- und Telekommunikationssektor bei der Implementierung von künstlicher Intelligenz und maschinellem Lernen?“ KI-gesteuerte Bedrohungserkennung, Verhaltensanalysen, Endpunktschutz, Bedrohungsintelligenz. Ist Crowdstrike führend beim Einsatz von KI und maschinellem Lernen in der Cybersicherheit? KI-gesteuerte Bedrohungserkennung, Verhaltensanalysen, Endpoint Protection, Bedrohungsintelligenz, Modelle für maschinelles Lernen. Wie schneiden Notion und Slack als Produktivitätstools ab? Begriff: Notizen machen und dokumentieren: Anpassung und Flexibilität: Aufgaben- und Projektmanagement: Interne Wissensdatenbank: Slack: Echtzeitkommunikation: Kanalbasierte Organisation: Integrationen und Automatisierung: Suche und Archivierung: Was künstliche Intelligenz besser nutzt, Begriff oder Slack? Idee: Vorschläge für intelligente Inhalte: Organisation der Wissensdatenbank: Datenextraktion: Slack: Bot-Integrationen: Intelligente Suche: Intelligente Benachrichtigungen und Priorisierung:
AKTIE