OpenAI: Vom KI-Chatbot zum kognitiven Denken
OpenAI will seine KI für logisches Denken und strategisches Planen fit machen.JarTee/Shutterstock.com
Vor allem durch den Chatbot ChatGPT hat sich OpenAI in den letzten Jahren einen Namen gemacht. Doch OpenAI ist viel mehr als nur ein Anbieter von Chatbots. Hinter den Kulissen arbeiten Expertenteams daran, die Möglichkeiten der Künstlichen Intelligenz für Unternehmen in allen Branchen nutzbar zu machen.
Jüngste Entwicklung ist dabei die Weiterentwicklung der bisher auf Konversation ausgelegten KI-Modelle – hin in Richtung einer „denkenden“ KI. Sie löst künftig komplexere Aufgaben, die logisches Denken und strategisches Planen erfordern. Eine Fähigkeit, die man bei OpenAI als „Reasoning“ bezeichnet.
Reasoning – die KI denkt
Ein Beispiel für Reasoning ist die Möglichkeit, strategische Geschäftspläne zu entwickeln. Die KI analysiert dazu Informationen aus verschiedenen Quellen, zieht Schlussfolgerungen und formuliert konkrete Handlungsempfehlungen. Diese Funktion ist laut OpenAI besonders für Führungskräfte hilfreich, die vor komplexen Entscheidungen stehen und verschiedene Szenarien durchspielen möchten.
Des Weiteren will das Unternehmen seine Modelle mittels „Distillation“ verfeinern. Distillation ermöglicht es Entwicklern, kleinere Modelle mit Daten zu optimieren, die von größeren Modellen generiert wurden. Auf diese Weise reduziere man die Kosten und Latenz, während die Leistung erhalten bleibt. Zudem werde so der KI-Einsatz für kleinere Unternehmen bezahlbar.
Distillation statt SLMs
Allerdings betont OpenAI, dass Distillation nicht mit dem SLMs-Ansatz anderer Player zu verwechseln sei. Grundsätzlich entwickle die Company weiterhin große Sprachmodelle (LLMs) und biete diese über APIs und die Plattform ChatGPT Enterprise an.
Im Fokus steht dabei die Entwicklung von General-Purpose-Modellen. So werde OpenAI weiterhin breit einsetzbare Modelle entwickeln, die Unternehmen an ihre spezifischen Bedürfnisse anpassen können. Spezifischen KI-Modellen, die etwa Player wie NVIDIA vermarkten, erteilt man dagegen eine Absage.
Weiterhin Cloud only
Auch seinem Vermarktungsmodell bleibt OpenAI treu: Das Unternehmen offeriert seine Modelle ausschließlich als Cloud-basierte Services. Die Möglichkeit zum On-Premises-Einsatz wird es bis auf weiteres nicht geben.
Anwender, die hier angesichts des Datenschutzes Bauchgrummeln haben, beruhigt die Company mit ihrem Zero-Data-Retention Modus. So würden im Enterprise-Modus die vom Modell verarbeiteten Daten – auch unternehmenseigene Daten – nicht gespeichert und nur für den Moment der Verarbeitung genutzt.
Zero-Data-Retention
Ferner nutze man diese Daten nicht zum Training der eigenen Modelle. Zudem werden die Daten sowohl während der Übertragung als auch im Ruhezustand verschlüsselt.
Und last, but not least setzt die Company, um den Datenschutz zu gewährleisten, auf eine Datenisolation. Hierzu erhält jedes Unternehmen einen eigenen, logisch getrennten Arbeitsbereich auf den jeweiligen KI-Instanzen.
Multimodale Interaktion
Ein weiteres Feld, in das OpenAI stark investiert, ist die multimodale Interkation. Eine Sprachfunktion ermöglicht es, mit ChatGPT zu sprechen und verschiedene Stimmen und Akzente zu nutzen.
Neue Möglichkeiten der globalen Kommunikation eröffnen Sprachübersetzung und -synthese in Echtzeit. So können beispielsweise Podcasts in verschiedenen Sprachen und mit der Stimme des Originalsprechers verfügbar gemacht werden. Eine entsprechende App will OpenAI noch im Lauf dieser Woche veröffentlichen.
Die sprechende KI
Einsatzgebiete für die Multimodale KI könnten etwa Callcenter sein. Vorstellbar ist auch die Verwendung in Hotels an der Rezeption oder beim Concierge – also in allen Bereichen, in denen Mitarbeiter mehrere Sprachen beherrschen sollten.
Ein weiterer großer Markt für multimodale Systeme dürften die In-Car-Entertainment-System im Fahrzeugbau sein. Fallen heutige Systeme oft noch durch ihren begrenzten Wortschatz negativ auf, könnte die Multimodale KI hier ganz neue Optionen und Features eröffnen.
Hier finden Sie den kompletten Artikel: