AWS stärkt SaaS-Schlüssel für die Cloud
BRISTOL, ENGLAND – 5. MÄRZ: Der Werkzeugkasten eines Ingenieurs gilt als das Bloodhound SSC-Fahrzeug, das derzeit ... [+] in seinem Designzentrum in Avonmouth am 5. März 2015 in Bristol, England, Gestalt annimmt. Es besteht die Hoffnung, dass das Bloodhound SSC-Auto, das von einem Eurofighter-Triebwerk und einer Rakete angetrieben wird, nach seiner Fertigstellung den aktuellen Landgeschwindigkeitsrekord von 763 Meilen pro Stunde oder 1228 km/h brechen wird. Obwohl das Bloodhound SSC ein privates Unternehmen ist, wird es von der britischen Regierung in erheblichem Umfang in Form von Sachleistungen unterstützt und wird als Bildungsressource genutzt, in der Hoffnung, dadurch mehr Schüler zu ermutigen, naturwissenschaftliche und technologiebezogene Kurse zu belegen. (Foto von Matt Cardy/Getty Images)
Hyperscaler bieten. Die großen Hyperscaler von Cloud Service Providern (CSP) haben sich von Anfang an im Wesentlichen als Software-as-a-Service (SaaS)-Unternehmen etabliert, die liefern, bedienen und unterstützen. Dieses Grundethos hat sich nicht geändert, aber die Weiterentwicklung des Cloud Computing in den letzten Jahrzehnten hat es uns ermöglicht, uns auf eine höhere Ebene der Kreativität zu entwickeln, auf der wir nicht nur bereitgestellte Cloud-Dienste konsumieren, sondern jetzt auch in und aus der Cloud erschaffen Wolke selbst.
Dies ist natürlich die aktuelle Ära, ein Ansatz, den wir Cloud-native Entwicklung nennen.
AWS war bestrebt, den virtuellen Softwareschlüsselsatz in seiner SaaS-Toolbox (Entwickler nennen sie tatsächlich Toolboxen) zu festigen und die neue Cloud-native-Ära mit Tools für diese Aufgabe auszustatten. Daher nutzte AWS kürzlich ein Benutzersymposium in New York, um einiges davon zu erklären Ich denke gerne an seine fortschrittlichsten Angebote in diesem Bereich.
Während wir glücklicherweise über den Punkt hinauskommen, an dem wir Unternehmensberater brauchen, die uns sagen, dass Daten das Lebenselixier des Unternehmens sind, hat AWS nach eigenen Angaben die Notwendigkeit erkannt, Cloud-Funktionen bereitzustellen, die mit unterschiedlichen Datenquellen arbeiten. Da sich einige Daten in proprietären, gesperrten lokalen Repositories befinden, die von einzelnen Unternehmen verwaltet werden, möchten Unternehmen nun auch mit Daten auf Datenmarktplätzen, Datenaustausch und offenen Datenquellen wie den Large Language Models (LLMs) arbeiten, die die generative KI-Entwicklung vorantreiben.
Da AWS erkennt, dass Epoxidharz- oder sogar Sekundenkleber-Varianten von Woodworker in der abstrahierten Welt des Cloud Computing nicht wirklich funktionieren, bietet AWS AWS Glue an, um Unternehmen bei der Integration von Datenquellen aus mehreren Kanälen zu unterstützen. Diese Technologie basiert auf den Prinzipien einer serverlosen Infrastruktur, d. h. Ingenieure müssen nicht die für den Betrieb erforderlichen Basisschichten bereitstellen, sondern können (naja, fast) einen Schalter betätigen und so viel Gas wie nötig verbrauchen, ohne sich um den Serverstatus dahinter kümmern zu müssen der Service.
Da verschiedene Benutzer Daten auf unterschiedliche Weise „zusammenkleben“ möchten, bietet AWS Glue unterschiedliche Autorenerfahrungen für Datenwissenschaftler und Cloud-native Softwareentwickler zum Erstellen von Datenintegrationsjobs. Diese Technologie nutzt ein gewisses Maß an maschinellem Lernen (ML) und Datenanalyse und bietet eine Notebook-Option für Datenwissenschaftler, die dazu neigen, Abfragen interaktiv auszuführen und Ergebnisse sofort abzurufen, um Datenintegrationsjobs zu erstellen.
Laut AWS kann dieses interaktive Erlebnis den Aufbau von Datenintegrationspipelines beschleunigen. Das Team weist außerdem auf die allgemeine Verfügbarkeit von Amazon CodeWhisperer hin, einem KI-Codierungsbegleiter, der grundlegende Modelle unter der Haube nutzt, um die Entwicklerproduktivität zu verbessern.
Für einige leicht zugängliche datenwissenschaftliche Lerninhalte können wir uns daran erinnern, dass grundlegende Modelle eine Möglichkeit zur Beschreibung der Modellproduktion mit künstlicher Intelligenz (KI) sind, bei der die Trainingsdaten breit genug sind, um an eine Vielzahl nachgelagerter Aufgaben angepasst zu werden. Das Stanford Institute for Human-Centered Artificial Intelligence (HAI) beschrieb im Jahr 2021 grundlegende Modelle (manchmal auch Basismodelle genannt) als Teil des „Paradigmenwechsels mit dem Aufkommen von Modellen“ und sagte: „Wir nennen diese [hier detailliert] Modelle grundlegend.“ Modelle, um ihren kritisch zentralen, aber unvollständigen Charakter zu unterstreichen.“
Amazon CodeWhisperer funktioniert durch die Generierung von Codevorschlägen in Echtzeit basierend auf Entwicklerkommentaren in natürlicher Sprache und früherem Code in ihrer integrierten Entwicklungsumgebung (IDE).
AWS hat außerdem die Amazon CodeWhisperer Jupyter-Erweiterung angekündigt, um Jupyter-Benutzern durch die Generierung von Echtzeit-, einzeiligen oder voll funktionsfähigen Codevorschlägen für Python-Notebooks auf Jupyter Lab und Amazon SageMaker Studio zu helfen. Zum Kontext hier: Wie auf GeeksforGeeks erwähnt, ist Jupyter Notebook eine Open-Source-Webanwendung, mit der Benutzer typische datenwissenschaftliche Workload-bezogene Dokumente erstellen und teilen können, die Live-Code, Gleichungen, Visualisierungen und narrativen Text enthalten.
„AWS Glue Studio-Notebooks unterstützen jetzt Amazon CodeWhisperer für AWS Glue-Benutzer, um Ihr Erlebnis zu verbessern und die Entwicklungsproduktivität zu steigern. Jetzt können Sie in Ihrem Glue Studio-Notizbuch einen Kommentar in natürlicher Sprache (auf Englisch) schreiben, der eine bestimmte Aufgabe beschreibt, z. B. „Erstellen Sie einen Spark-DataFrame aus einer JSON-Datei“. Basierend auf diesen Informationen empfiehlt CodeWhisperer einen oder mehrere Codeausschnitte direkt im Notebook, die die Aufgabe erfüllen können“, stellt AWS in einer technischen Stellungnahme fest.
AWS hat jetzt auch seinen vollständig verwalteten Basismodell-Service Amazon Bedrock (wie oben erläutert) um Cohere als Anbieter von Basismodellen und die neuesten Basismodelle von Anthropic und Stability AI (kleinere, unabhängige IT-Organisationen, die auf KI-Entwicklung spezialisiert sind) erweitert , KI-Sicherheit und Deep Learning für Text-zu-Bild-KI) sowie eine neue Funktion zum Erstellen vollständig verwalteter Agenten mit nur wenigen Klicks.
Amazon Bedrock ist ein verwalteter Dienst, der grundlegende Modelle von Amazon und KI-Startups über eine API verfügbar macht, sodass Benutzer das Modell finden können, das für jeden Anwendungsfall am besten geeignet ist. AWS ist sichtlich erfreut über diese Arbeit und sagt, dass es sich um eine „bahnbrechende“ Funktion für Entwickler handelt, für die kein Fachwissen erforderlich ist.
Um hier eine weitere Erklärungslücke zu schließen: Cohere ist ein Entwickler von KI-Plattformen für Unternehmen und grundlegenden Modellen, die Möglichkeiten zur Generierung, Suche und Zusammenfassung von Informationen ermöglichen. Command, das Textgenerierungsmodell von Cohere, ist darauf trainiert, Benutzerbefehlen zu folgen und in praktischen Geschäftsanwendungen wie Zusammenfassung, Texterstellung, Dialog, Extraktion und Beantwortung von Fragen nützlich zu sein.
Kunden (womit wir wiederum Datenwissenschaftler und Softwareentwickler meinen) können Amazon Bedrock nutzen, um generative KI-Anwendungen mit einer Auswahl grundlegender Modelle zu erstellen und zu skalieren, indem sie auf eine einfache Anwendungsprogrammierschnittstelle (API) zugreifen – und das alles in einer sicheren Umgebung und ohne Verwaltung Infrastruktur. Die Erweiterung von Amazon Bedrock um einen neuen Modellanbieter, grundlegende Modelle und die Möglichkeit, Agenten einfach zu verwalten, soll Benutzern ein umfassendes Toolset bieten, um generative KI für jeden Anwendungsfall einzusetzen und bereitzustellen.
„Generative KI hat das Potenzial, jede Anwendung, jedes Unternehmen und jede Branche zu verändern. Fortschritte in den Bereichen Datenverarbeitung, Berechnung und maschinelles Lernen beschleunigen den Übergang vom Experimentieren zur Bereitstellung für AWS-Kunden jeder Größe“, sagte Swami Sivasubramanian, Vizepräsident für Datenbanken, Analysen und maschinelles Lernen bei AWS. „Durch Dienste wie Amazon Bedrock und die Zusammenarbeit mit Branchenführern demokratisieren wir den Zugang zu generativer KI, sodass Kunden überall dort, wo sie sich auf ihrer Reise zum maschinellen Lernen befinden, AWS nutzen können, um Erfahrungen neu zu erfinden und neue Produkte zum Leben zu erwecken.“
Sivasubramanian und sein Team erinnern uns daran, wie groß das Potenzial der generativen KI heute ist, unsere Arbeitsweise zu verändern. Vieles davon ist auf die massive Datenvermehrung, die Verfügbarkeit hoch skalierbarer Rechenkapazität – größtenteils über die Cloud, aber auch vor Ort – und die Weiterentwicklung von Technologien des maschinellen Lernens (ML) zurückzuführen. AWS erinnert uns jedoch daran, dass die Auswahl des richtigen Modells, die sichere Anpassung unter Verwendung vertraulicher geistiger Eigentums- oder Unternehmensdaten und die Integration in eine Anwendung ein komplexer Prozess sind, der viel Zeit und hochspezialisiertes Fachwissen erfordert.
Es überrascht nicht, dass Amazon Bedrock so benannt wurde, um eine solide Grundlage für den Planeten Erde zu vermitteln, da so viel über die Cloud um uns herum gesprochen wird. Das Ziel von Amazon Bedrock ist es, Prozesse zu vereinfachen, die mit der Entwicklung und Skalierung generativer KI-basierter Anwendungen verbunden sind, und zwar durch Zugriff auf eine Auswahl grundlegender Modelle der zuvor genannten Spezialisten und andere – auf die alle über eine „einfache“ Anwendungsprogrammierschnittstelle (API) zugegriffen werden kann, d. Rufdienst.
Diese AWS-Technologien sind nicht die ersten cloudnativen Entwicklungstools für Softwareanwendungen, die auf den Markt kommen; Der Prozess, diesen Punkt zu erreichen, findet spätestens seit der Jahrtausendwende und der ersten Cloud-Ära statt. Was sie darstellen, ist ein ausgefeilterer Satz von SaaS-Softwareschlüsseln und, was entscheidend ist, da sie einen zunehmenden Satz von ML und KI nutzen, werden sie potenziell von einem breiteren Spektrum von Cloud-nativen Softwareentwicklern und Datenwissenschaftlern genutzt werden können .
Auch das hat das Unternehmen nicht übersehen und es laut ausgesprochen.
„AWS bietet das umfassendste und tiefgreifendste Angebot an ML-Diensten und unterstützender Cloud-Infrastruktur, um ML- und KI-Funktionen in die Hände von Entwicklern aller Erfahrungsstufen zu legen“, stellt das Unternehmen fest. Darüber hinaus sprechen wir, wie oben erwähnt, jetzt auch darüber, die Cloud-native Anwendungsentwicklung viel näher am Aufbau von Geschäftsfunktionen einzusetzen (wobei Amazon Bedrock Cohere als neuesten Anbieter von Basismodellen hinzufügt) und generative KI-Anwendungen zu erstellen.
Cloud-nativ wird immer einfacher und gleichzeitig komplexer, doch mit der zunehmenden Komplexität gehen auch Dienste einher, die alle Benutzerbedenken in Bezug auf Funktionalität, Sicherheit, Integration oder Implementierung während des gesamten Anwendungsentwicklungslebenszyklus zerstreuen und entschärfen.
Die Wolken sind immer noch flauschig, aber sie verfestigen sich weiter.
