KI-Dienstleister finden: Der große AI-as-a-Service-Ratgeber
Wer nicht die Zeit oder das Geld hat, um eigene KI-Instanzen aufzusetzen, könnte mit einem AI-as-a-Service-Angebot glücklich werden. Insofern die Voraussetzungen stimmen.
Foto: VesnaArt | shutterstock.com
Künstliche Intelligenz (KI) ist weiter auf dem Vormarsch. Laut Gartner werden mehr als 80 Prozent aller Unternehmen bis zum Jahr 2026 in irgendeiner Form Generative-AI-APIs oder -Apps nutzen. Diejenigen, die dazu gehören, müssen sich überlegen, wie sie ihre KI-Instanzen optimal trainieren und einsetzen – On-Premises oder in der Cloud.
Eine KI zu trainieren, erfordert spezielle Hardware, die im Vergleich zu Standard-Servern deutlich teurer ist. Die Kosten beginnen im mittleren sechsstelligen Bereich und können in die Millionen gehen. Allerdings kann das teure Equipment nicht für andere Zwecke (etwa Datenbanken) genutzt respektive wiederverwendet werden. Abgesehen von den Anschaffungs- und Wartungskosten stellt das KI-Training auch den schwierigsten und prozessintensivsten Part eines solchen Unterfangens dar. Je nach zugrundeliegendem Datensatz kann das Wochen oder auch Monate in Anspruch nehmen – die Sie unter Umständen nicht warten können oder wollen. Im Grunde haben Sie also zwei Möglichkeiten:
Sie kaufen Hardware und setzen Ihre KI im DIY-Verfahren auf.
Sie wenden sich an einen KI-Dienstleister.
AI as a Service – kurz AIaaS – ist der neueste Schrei auf dem As-a-Service-Markt und speziell auf Initiativen in Zusammenhang mit künstlicher Intelligenz ausgerichtet. Cloud Services Provider – aber auch kleinere Anbieter – haben solche Dienstleistungsangebote im Portfolio.
Im Folgenden werfen wir einen Blick darauf, wie AIaaS funktioniert, wo die Vor- und Nachteile des Modells liegen und wie die Schlüsselkriterien für entsprechende Plattformen aussehen. Abschließend stellen wir Ihnen die fünf wichtigsten KI-Dienstleister – und ihre Angebote – vor.
Wie funktioniert AI as a Service?
KI als Service bietet Anwenderunternehmen Cloud-basierten Zugang zu AI-Funktionalitäten, um diese in ihre Projekte oder Applikationen zu integrieren, ohne dafür eine eigene Infrastruktur aufbauen und pflegen zu müssen. Vorgefertigte respektive -trainierte KI-Modelle für grundlegende Anwendungsfälle wie Chatbots gewährleisten dabei, dass den Kunden zeitintensive Grundlagenarbeit erspart bleibt.
“AI as a Service ermöglicht grundsätzlich, Anwendungen im Unternehmen schneller entwickeln und bereitzustellen”, konstatiert Gartner-Analyst Chirag Dekate. Dem Experten zufolge gibt es im Bereich AIaaS drei Einstiegspunkte:
die Anwendungsebene,
die Ebene der Modellentwicklung und
die Ebene der benutzerdefinierten Modellentwicklung.
Die Offerings der KI-Dienstleister beinhalten darüber hinaus oft Data Preparation für unstrukturierte Daten und die Möglichkeit, vom Anwender bereitgestellte Modelle zu trainieren. Vorgefertigte Modelle stehen im Regelfall für diverse Tasks zur Verfügung – unter anderem:
Bilderkennung,
Datenanalyse,
Natural Language Processing und
Predictive Analytics.
Der Zugriff auf die AI Services erfolgt dabei entweder über APIs oder User Interfaces. Das ermöglicht, KI-Funktionen (oft) mit minimalem Programmieraufwand in eigene Applikationen und/oder Plattformen zu integrieren.
KI als Service – Kosten und Anforderungen
Die meisten AI-as-a-Service-Anbieter nutzen ein Pay-as-you-go-Modell – entweder auf Nutzungs- oder Flatrate-Basis. Das ist im Vergleich zu IaaS– oder PaaS-Szenarien deutlich kostenintensiver. So ruft beispielsweise Nvidia für seinen Supercomputer-Service DGX Cloud monatlich pauschal 37.000 Dollar auf.
Das schlagende Argument für AIaaS sind die Kosten für die Hardware, die nötig ist, um KI On-Premises zu realisieren. Nvidias DGX Pod H100-Server ist beispielsweise ab 500.000 Dollar zu haben, das wesentlich größere Modell SuperPOD hat einen Einstiegspreis von 7.000.000 Dollar. Unternehmen, die das Preisgefüge von x86-Servern gewöhnt sind, dürften bei diesen Zahlen schnell einem Preisschock erliegen. Speziell für KMUs ist AI as a Service deshalb des Öfteren die einzige realistische Option.
Laut Mike Gualtieri, Vice President und Chefanalyst bei Forrester Research, eignet sich KI als Service auch deshalb besonders gut, um zu experimentieren: “Ihre eigene Infrastruktur für 30 Use Cases hochzufahren, wenn vielleicht nur ein paar davon funktionieren, ist nicht wirtschaftlich. Dennoch brauchen Sie die Infrastruktur, um zu testen.”
Neben den Kosten für die Hardware stellt sich außerdem die Frage der Verfügbarkeit: So hat Nvidia beispielsweise mit einem enormen Auftrags-Backlog zu kämpfen. Wer heute einen On-Premises SuperPOD kaufen möchte, muss bis zu acht Monaten warten. Selbst wenn Sie also kaufen möchten und das nötige Kleingeld dafür haben, ist die einzige Option für ein zeitnahes Deployment ein KI-Dienstleister.
AI as a Service – Vor- und Nachteile
Die Vorteile von AI as a Service im Überblick:
Niedrigere Einstiegsschwelle: AIaaS ist wesentlich kostenintensiver als herkömmliche Cloud Services. Dennoch ist KI als Dienstleistung deutlich günstiger als die Hardware selbst anzuschaffen. Vom Modelltraining ganz zu schweigen.
Kürzere Time-to-Market: KI-Hardware on Premises zu installieren und zu konfigurieren, ist ebenfalls kostspielig und zeitaufwändig. Zudem setzt das voraus, dass Sie auch die richtigen Experten an Bord haben, die entsprechende Lösungen bereitstellen und supporten können. Das Hardware-Management einem Serviceanbieter zu überlassen, spart Zeit und ermöglicht den Anwenderunternehmen, sich auf Kerngeschäft und -kompetenzen zu fokussieren.
Zugang zu State-of-the-Art-Technologie: KI kann Wettbewerbsvorteile erschließen. Weil die Anbieter Kunden binden wollen, sind sie darauf bedacht, sich beständig zu verbessern und ihre Angebote weiterzuentwickeln.
Skalierbarkeit: Da es sich um Cloud-basierte Dienstleistungen handelt, ist eines der wichtigsten Verkaufsargumente, dass sich AIaaS-Lösungen entsprechend den Bedürfnissen des Anwenderunternehmens anpassen lassen.
Zugang zu KI-Expertise: KI steckt immer noch in den Kinderschuhen und die Anzahl der IT-Experten, die die Hardware konfigurieren und managen können, ist überschaubar – außer bei den großen Cloud Services Providern.
Wo Licht ist, ist auch Schatten – da bildet AI as a Service keine Ausnahme:
Vendor Lock-in. Wenn Sie sich einmal für eine Plattform entschieden haben, kann der Umstieg auf einen anderen Anbieter problematisch sein.
Begrenzte Anpassungsmöglichkeiten. Vorgefertigte Modelle sind für allgemeine Zwecke gut geeignet, können aber nicht auf spezifische Anforderungen abgestimmt werden. Sie sind deshalb möglicherweise gezwungen, Ihre eigenen Modelle zu erstellen und zu verarbeiten.
Security- und Datenschutzbedenken. Wenn es um Unternehmensdaten geht, ist sorgfältig abzuwägen, ob Drittanbieter miteinbezogen werden.
AIaaS-Plattformen – Schlüsselkriterien
Bei der Auswahl einer AIaaS-Plattform sollten Sie (unter anderem) verstärkt auf die folgenden Aspekte achten:
Unterstützte Workloads: Laut Forrester-Chefanalyst Gaultieri ist das wichtigste Kriterium bei der Auswahl eines AIaaS-Anbieters, ob er alle KI-Phasen unterstützt: Datenvorbereitung, Modelltraining und Inferencing. Gerade ersteres wird in der KI-Debatte oft unter den Tisch gekehrt, ist jedoch unumgänglich, weil KI-Instanzen in der Regel auf unstrukturierte Daten zugreifen.
Regionale Infrastruktur: Geht es nach Gartner-Analyst Dikate, sollten Anwender in erster Linie darauf achten, dass AIaaS-Anbieter über ausreichende Skalierungskapazitäten in ihrer Region verfügen. Nicht alle Cloud-Anbieter verfügen über global verteilte Ressourcen.
Erfahrung sticht: Suchen Sie gezielt nach Anbietern mit Erfahrung in Ihrer Branche oder mit Projekten, die ähnliche Herausforderungen aufwerfen. Fragen Sie nach Fallstudien, Kundenreferenzen und Erfahrungsberichten.
KI-Spezifizierung: Bilderkennung ist etwas völlig anderes als Intrusion Detection oder ein Chatbot. Nicht jeder AIaaS-Anbieter ist auf sämtliche KI-Arten spezialisiert. Sie sollten deshalb sicherstellen, dass die Spezialisierung Ihres KI-Dienstleisters möglichst Ihren Bedürfnissen entspricht.
Daten- und Compliance-Kompatibilität: Stellen Sie sicher, dass die Anbieterplattform sowohl Ihr Datenformat als auch -volumen unterstützt. Wenn es sich um stark regulierte Daten handelt, sollten Sie sichergehen, dass der Anbieter entsprechend zertifiziert ist, um diese zu verarbeiten.
Skalierbarkeit: KI-Dienstleister verfügen möglicherweise nicht mehr über die nötige Kapazität, wenn Ihr Bedarf weiter wächst. Natürlich sind Zukunftsprognosen schwierig, insbesondere bei sich rasant verändernden Branchen wie KI. Dennoch ist es ratsam, eine zufriedenstellende Zukunftsperspektive einzuholen.
Modell-Updates und -Wartung: KI-Modelle funktionieren fast nie nur einmal und dann nie wieder. Sie müssen regelmäßig und routinemäßig auf den aktuellen Stand gebracht werden. Studieren Sie deshalb die Richtlinien des Anbieters mit Blick darauf, wie das Modell gespeichert und aktualisiert werden kann und wie es sich “aus dem System” On-Premises nehmen lässt.
Workload Management Software: Schließlich sollten Sie sicherstellen, dass der Anbieter in der Lage ist, einen Workload neu zu starten, wenn während der Verarbeitung ein Problem auftritt. Gaultieri erklärt, warum: “Stellen Sie sich vor, Sie erstellen ein Large Language Model, lassen es eine Woche lang laufen und dann geht etwas schief. Wenn es sich um einen mehrwöchigen Workload handelt, möchten Sie nicht von vorne beginnen. Features wie Checkpointing sind deshalb ratsam.”
Die 5 wichtigsten KI-Dienstleister
AI as a Service ist kein kleines Unterfangen. Während neuere Anbieter wie Nvidia, OpenAI und auch einige Managed-Services-Anbieter auf den Plan treten, sind die wichtigsten Akteure im Bereich KI-Dienstleistungen in erster Linie die Cloud-Hyperscaler. Sie verfügen über die Ressourcen, um AIaaS im Enterprise-Maßstab zu supporten.
Amazon Web Services
Amazon Web Services (AWS) hat eine breite Palette von KI-Dienstleistungen im Angebot, angefangen bei vorgefertigten, sofort einsetzbaren Services, die den Start eines KI-Projekts erleichtern und den Bedarf an erfahrenen Datenwissenschaftlern und KI-Entwicklern minimieren können. Zu diesen Services gehören beispielsweise:
Amazon Translate (Echtzeit-Übersetzungen),
Amazon Rekognition (Bild- und Videoanalyse),
Amazon Polly (Text-to-Speech) und
Amazon Transcribe (Speech-to-Text).
Zu den Tools im Bereich Managed Infrastructure gehören:
Amazon SageMaker (Machine-Learning-Modelle erstellen, trainieren und bereitstellen),
Amazon Machine Learning Drag-and-Drop-Tools und -Templates (ML-Modelle einfacher bereitstellen),
Amazon Comprehend (Natural Language Processing),
Amazon Forecast (akkurate Zeitreihenvorhersagen) und
Amazon Personalize (personalisierte Produkt- und Content-Vorschläge).
Im Bereich generative KI bietet AWS:
Amazon Lex (KI-Chatbots erstellen),
Amazon CodeGuru (Code analysieren und optimieren) sowie
Amazon Kendra (intelligente Suchen).
Microsoft
Microsofts Azure KI Services richten sich an Entwickler und Datenwissenschaftler und basieren auf Anwendungen wie SQL Server, Office und Dynamics. Dabei haben die Redmonder künstliche Intelligenz in verschiedene Business-Apps integriert – sowohl in der Cloud als auch On-Premises.
Bekanntermaßen ist Microsoft eine enge Partnerschaft mit ChatGPT-Entwickler OpenAI eingegangen. Entsprechend sind viele KI-Anwendungen auf dem Azure-Marktplatz zu finden. Darüber hinaus steht ein OpenAI Service mit vortrainierten Large Language Models wie GPT-3.5, Codex und DALL-E 2 zur Verfügung.
Zu den vorgefertigten AI Services im Angebot von Microsoft zählen etwa:
Spracherkennung,
Textanalyse,
Übersetzung,
Bildverarbeitung und
ML-Modell-Deployment.
Google Cloud
Der KI-Service von Google ist auf Data Analytics fokussiert und bietet Tools wie BigQuery und AI Platform sowie den Service AutoML, der Benutzern mit eingeschränkten Coding-Fähigkeiten ermöglicht, automatisch Modelle zu erstellen. Google Cloud bietet zudem die Plattform Vertex AI, um KI-Workflows zu optimieren und Entwicklung und Bereitstellung zu vereinfachen. Dazu gehört auch eine breite Palette von Services mit vorgefertigten Lösungen, benutzerdefiniertem Modelltraining und Generative-AI-Werkzeugen. Mit der Vertex AI Workbench stellt Google außerdem eine kollaborative KI-Projektumgebung für Datenwissenschaftler und Entwickler zur Verfügung.
Die vorgefertigten KI-Lösungen von Google Cloud umfassen:
Dialogflow (Plattform, um Chatbots und virtuelle Assistenten zu entwickeln),
Natural Language API (Sentiment-Textanalysen, Entity-Extraktion etc.),
Vision AI (Objekterkennung in Bildern und Videos),
Translation API (maschinelle Übersetzungen in verschiedenen Sprachen) sowie
Speech-to-Text und Text-to-Speech (Konversionen zwischen gesprochener Sprache und Text).
Was Generative AI angeht, bietet Vertex AI Search and Conversation eine Tool-Sammlung, die speziell darauf konzipiert ist, GenAI-Applikationen wie Suchmaschinen und Chatbots zu entwickeln. Diese Suite enthält mehr als 130 vortrainierte Foundational-LLMs wie PaLM und Imagen, um Texte und/oder Bilder zu generieren.
Darüber hinaus hat Google auch den Bard-Nachfolger Gemini im Programm, der (demnächst) in drei verschiedenen Versionen erhältlich ist:
Gemini Nano für Smartphones,
Gemini Pro sowie
Gemini Ultra, das sich noch in der Entwicklung befindet und wesentlich leistungsfähiger als die Pro-Version sein soll.
IBM
IBMs Watsonx, ist ein umfassendes KI-Tool- und -Dienstleistungsangebot, das für seinen Fokus auf die Automatisierung komplexer Geschäftsprozesse und seine branchenspezifischen Lösungen, insbesondere für das Gesundheits- und Finanzwesen, bekannt ist. Watsonx.ai Studio ist das Herzstück dieser Plattform, auf der Sie KI-Modelle trainieren, validieren, abstimmen und einsetzen können – sowohl für maschinelles Lernen als auch für generative KI. Ein Data Lakehouse gewährleistet dabei ein sicheres und skalierbares Speichersystem für Ihre Daten (sowohl strukturierte als auch unstrukturierte).
IBMs AI Toolkit ist eine Sammlung vorgefertigter Tools und Konnektoren, die die Integration von KI in Ihre bestehenden Workflows erleichtern. So lassen sich Tasks automatisieren, Erkenntnisse aus Daten gewinnen und intelligente Applikationen erstellen. Watsonx enthält auch eine Reihe vortrainierter KI-Modelle, die Sie direkt und ohne Training einsetzen können. Diese Modelle decken verschiedene Tasks ab – beispielsweise:
Natural Language Processing,
Computer Vision und
Spracherkennung.
Oracle
Oracle liegt bislang weit hinter den Cloud-Hyperscalern zurück, bringt jedoch einige Vorteile mit, die Sie auf dem Schirm haben sollten – in erster Linie, weil es ein Riese in Sachen Business-Anwendungen und -Datenbanken ist. Alle On-Premises installierten Anwendungen können in die Cloud verlagert werden, um eine hybride Konfiguration zu verwirklichen. Das erleichtert es erheblich, Ihre lokalen Daten zu Data-Preparation- und Schulungszwecken in die Cloud zu verlagern. Oracle hat sehr stark in GPU-Technologie investiert, die derzeit das wichtigste Mittel zur KI-Datenverarbeitung darstellt. Wenn Sie also KI-Anwendungen auf Nvidia-Technologie laufen lassen wollen, können Sie sich an Oracle wenden. Ein weiterer gewichtiger Vorteil: Die KI-Dienstleistungen von Oracle sind mit die günstigsten.
Die Oracle Cloud Infrastructure (OCI) AI Services decken ein breit gefächertes Portfolio von Tools und Services ab, um Unternehmen mit diversen KI-Funktionen zu versorgen. Ähnlich wie im Fall von IBMs Watsonx handelt es sich nicht um einen einzigen Service, sondern um eine Sammlung von Funktionen, die unterschiedliche Anforderungen erfüllen – darunter:
Betrugserkennung und -prävention,
Spracherkennung sowie
Sprach- und Textanalyse.
Oracles Generative-AI-Services unterstützt LLMs wie Cohere und Llama 2 und ermöglicht Anwendungsfälle wie:
Schreib-Assistenten,
Textzusammenfassungen,
Chatbots oder
Code-Generierung.
Die Machine Learning Services von Oracle bieten Tools für Datenwissenschaftler, um ML-Modelle zu erstellen, zu trainieren und zu managen. Dabei werden populäre Open-Source-Frameworks wie TensorFlow und PyTorch unterstützt. Mit OCI Data Science ist es schließlich möglich, virtuelle Maschinen mit vorkonfigurierten Umgebungen für Data-Science-Aufgaben bereitzustellen – inklusive Jupyter-Notebooks und Zugang zu beliebten Bibliotheken, die die Datenexploration und den Modellentwicklungs-Workflow vereinfachen. (fm)
Sie wollen weitere interessante Beiträge zu diversen Themen aus der IT-Welt lesen? Unsere kostenlosen Newsletter liefern Ihnen alles, was IT-Profis wissen sollten – direkt in Ihre Inbox!
Hier finden Sie den kompletten Artikel: