The Next Big Thing: Die Weiterentwicklung von Large Language Models

von | Juni 11, 2025 | Forschung, Trends & Zukunft

ren-ai-ssance News Blog

Die Welt der künstlichen Intelligenz (KI) befindet sich in einem stetigen, rasanten Wandel. Im Zentrum dieser Umwälzung stehen große Sprachmodelle, bekannt als Large Language Models (LLMs). Diese komplexen Algorithmen, die darauf trainiert sind, menschliche Sprache zu verstehen und zu generieren, haben in kürzester Zeit Anwendungsbereiche von der alltäglichen Kommunikation bis hin zur spezialisierten Forschung revolutioniert. Doch die aktuelle Generation von Modellen wie GPT-4 oder Llama ist nur ein Zwischenschritt. Hinter den Kulissen arbeiten Forschende und Entwickler*innen unermüdlich an der nächsten Stufe der Evolution. Ihr Ziel ist es, die Effizienz und die Fähigkeiten von LLMs weiter zu steigern, um eine noch präzisere und menschenähnlichere Textgenerierung und ein tiefergehendes Verständnis zu ermöglichen. Dies ist die Geschichte einer technologischen Reise, die gerade erst begonnen hat – eine Reise hin zu einer KI, die nicht nur assistiert, sondern wirklich kollaboriert.

Die Faszination, die von LLMs ausgeht, ist unbestreitbar. Sie können Gedichte verfassen, komplexe Sachverhalte zusammenfassen, Programmiercode erstellen und in fließenden Dialogen auf menschliche Anfragen reagieren. Diese beeindruckenden Fähigkeiten haben Werkzeuge wie ChatGPT in Rekordzeit zu einem globalen Phänomen gemacht. Doch so bemerkenswert diese Leistungen sind, sie markieren nicht das Ende der Entwicklung, sondern den Anfang. Die Forschung zielt darauf ab, die grundlegenden Mechanismen dieser Modelle zu verfeinern, ihre Grenzen zu überwinden und ihr Potenzial voll auszuschöpfen. Der Weg führt weg von rein vorhersagenden Systemen hin zu Modellen, die ein echtes Verständnis von Kontext, Kausalität und Wissen aufweisen.

Die Wurzeln der Sprachintelligenz: Von statistischen Modellen zur Transformer-Revolution

Um die Zukunft der LLMs zu verstehen, ist ein Blick auf ihre Vergangenheit unerlässlich. Die ersten Versuche, Sprache maschinell zu verarbeiten, reichen Jahrzehnte zurück. Frühe Modelle wie ELIZA aus dem Jahr 1966 waren einfache, regelbasierte Systeme, die menschliche Konversation eher imitierten als verstanden. Spätere statistische Ansätze, wie N-Gramm-Modelle, berechneten die Wahrscheinlichkeit des nächsten Wortes in einer Sequenz basierend auf den vorhergehenden Wörtern. Diese Methoden waren ein wichtiger Schritt, blieben aber in ihrem Verständnis für komplexere sprachliche Zusammenhänge stark limitiert.

Ein entscheidender Meilenstein war die Einführung von „Word Embeddings“. Diese Technik ermöglichte es, Wörter in Form von Zahlenvektoren darzustellen, die ihre semantischen Beziehungen zueinander erfassten. Plötzlich konnten Modelle „verstehen“, dass „König“ und „Königin“ eine ähnliche Beziehung zueinander haben wie „Mann“ und „Frau“. Dies legte den Grundstein für tiefere neuronale Netze in der Sprachverarbeitung.

Der wahre Wendepunkt kam jedoch 2017 mit der Erfindung der Transformer-Architektur durch Forschende bei Google. Anstatt Sätze Wort für Wort sequenziell zu verarbeiten, ermöglichte der im Transformer-Modell zentrale „Selbstaufmerksamkeitsmechanismus“ dem Modell, die Beziehungen zwischen allen Wörtern in einem Text gleichzeitig zu gewichten, unabhängig von ihrer Position. Diese Fähigkeit, den gesamten Kontext zu erfassen, war revolutionär. Sie erlaubte es, weitaus komplexere und nuanciertere sprachliche Muster zu lernen. Die GPT-Serie von OpenAI und Modelle wie BERT von Google bauten auf dieser Architektur auf und demonstrierten eindrucksvoll das Potenzial, das in riesigen, mit Terabytes an Textdaten trainierten Transformer-Modellen steckt.

Die Jagd nach Effizienz: Kleinere, schnellere und grünere Modelle

Eines der größten Hindernisse auf dem Weg zur nächsten Generation von LLMs ist ihr immenser Ressourcenhunger. Das Training und der Betrieb der größten Modelle erfordern enorme Rechenkapazitäten und verbrauchen große Mengen an Energie, was sowohl ökonomische als auch ökologische Bedenken aufwirft. Allein die Anfragen an ChatGPT verursachen einen erheblichen jährlichen Energieverbrauch. Daher ist ein zentraler Forschungszweig die Steigerung der Effizienz.

Ein vielversprechender Ansatz ist die Entwicklung von kleineren, aber dennoch hochleistungsfähigen Modellen. Ein Beispiel hierfür ist Mistral 7B, das mit nur sieben Milliarden Parametern eine Leistung erzielt, die mit deutlich größeren Modellen wie GPT-3 (mit 175 Milliarden Parametern) vergleichbar ist. Solche kompakteren Modelle können potenziell direkt auf Endgeräten wie Laptops oder sogar Smartphones ausgeführt werden, was den Datenschutz erhöht und die Abhängigkeit von Cloud-Infrastrukturen verringert.

Eine weitere Technik zur Effizienzsteigerung ist die Quantisierung. Hierbei wird die Präzision der Zahlen, die die Parameter eines Modells repräsentieren, reduziert. Dies verringert den Speicherbedarf und beschleunigt die Berechnungen, ohne die Leistung des Modells signifikant zu beeinträchtigen. Dadurch wird es möglich, größere Modelle auf Hardware mit weniger Arbeitsspeicher zu betreiben.

Gleichzeitig findet eine Revolution auf der Hardware-Ebene statt. Während Grafikprozessoren (GPUs) bisher die Standard-Hardware für das Training und die Ausführung von KI-Modellen waren, entwickeln spezialisierte Start-ups wie Groq neue Prozessortypen. Ihre sogenannten LPUs (Language Processing Units) sind von Grund auf für die spezifischen Anforderungen von Sprachmodellen konzipiert. Mit einer vereinfachten Architektur können sie Texte mit einer Geschwindigkeit von bis zu 500 Token pro Sekunde generieren – ein Vielfaches dessen, was herkömmliche Systeme leisten. Solche Hardware-Beschleunigungen sind nicht nur schneller, sondern auch energieeffizienter, was die Betriebskosten und den ökologischen Fußabdruck von LLM-Anwendungen drastisch senken könnte.

Präzision statt Plausibilität: Der Kampf gegen die „Halluzination“

Ein notorisches Problem aktueller LLMs ist ihre Neigung zu „Halluzinationen“. Da die Modelle darauf trainiert sind, das wahrscheinlichste nächste Wort vorherzusagen, können sie mit großer Überzeugung falsche oder erfundene Informationen generieren, die plausibel klingen, aber jeder faktischen Grundlage entbehren. Dieser Umstand stellt ein erhebliches Risiko dar, insbesondere in kritischen Anwendungsbereichen wie der Medizin oder der Rechtsberatung.

Um dieses Problem zu adressieren, hat sich die Forschung intensiv der Retrieval-Augmented Generation (RAG) zugewandt. RAG ist ein Verfahren, das die generativen Fähigkeiten eines LLMs mit dem Zugriff auf externe, verifizierte Wissensdatenbanken kombiniert. Anstatt sich nur auf das im Training internalisierte Wissen zu verlassen, kann das Modell bei einer Anfrage zunächst eine Suche in einer vertrauenswürdigen Quelle – etwa einer unternehmensinternen Datenbank, einem juristischen Archiv oder einer wissenschaftlichen Bibliothek – durchführen. Die gefundenen Informationen werden dann als Kontext an das LLM übergeben, das auf dieser Grundlage eine präzise und faktengestützte Antwort formuliert. Dieser Ansatz erhöht nicht nur die Zuverlässigkeit, sondern ermöglicht es Unternehmen auch, LLMs sicher mit ihren eigenen, sensiblen Daten zu nutzen.

Eine weitere, komplementäre Technologie sind Wissensgraphen (Knowledge Graphs). Dies sind strukturierte Netzwerke von Fakten und deren Beziehungen, die es einer Maschine ermöglichen, Wissen in einer logisch nachvollziehbaren Form zu repräsentieren. Durch die Integration von Wissensgraphen können LLMs auf eine solide Wissensbasis zurückgreifen, was ihre Fähigkeit zu logischen Schlussfolgerungen verbessert und Halluzinationen weiter reduziert. Die Kombination aus der flexiblen Sprachverarbeitung von LLMs und dem strukturierten Wissen von Ontologien und Graphen gilt als vielversprechender Weg zu KI-Systemen, die sowohl sprachgewandt als auch faktentreu sind.

Auf dem Weg zur Autonomie: Die neue Ära der KI-Agenten

Die vielleicht spannendste Entwicklungslinie in der LLM-Forschung geht über die reine Textgenerierung hinaus und zielt auf die Erschaffung autonomer Agenten. Ein LLM ist in seiner Grundform ein passives System, das auf eine Eingabe (einen Prompt) wartet und eine Ausgabe generiert. Ein KI-Agent hingegen ist ein System, das ein LLM als zentrales „Gehirn“ nutzt, um eigenständig zu handeln, Ziele zu verfolgen und mit seiner Umgebung zu interagieren.

Diese Agenten können komplexe Probleme in kleinere, handhabbare Schritte zerlegen, Pläne erstellen und zur Lösung externe Werkzeuge (Tools) nutzen. Ein Agent könnte beispielsweise den Auftrag erhalten, eine Reise zu planen. Anstatt nur einen Textvorschlag zu generieren, würde er eigenständig Flugsuchmaschinen abfragen, Hotelbuchungsplattformen nutzen, Kalender abgleichen und am Ende eine fertige Buchung präsentieren. Diese Fähigkeit, autonom zu handeln, eröffnet völlig neue Anwendungsfelder, von der Automatisierung komplexer Geschäftsprozesse bis hin zu persönlichen Assistenten, die proaktiv Aufgaben für ihre Nutzer*innen erledigen.

Die Forschung an Multi-Agenten-Systemen geht sogar noch einen Schritt weiter. Hier kollaborieren mehrere spezialisierte Agenten, um eine Aufgabe zu lösen. Man kann sich ein Team vorstellen, in dem ein „Programmierer“-Agent den Code schreibt, ein „Kritiker“-Agent diesen überprüft und ein „Tester“-Agent ihn auf Fehler untersucht. Solche kooperativen Systeme haben das Potenzial, komplexe Herausforderungen wie die Optimierung von Lieferketten oder die Verwaltung intelligenter Stromnetze zu bewältigen, indem sie dezentrale und dynamische Entscheidungen treffen.

Die Erweiterung der Sinne: Multimodale Modelle und neue Architekturen

Die menschliche Wahrnehmung ist nicht auf Text beschränkt; wir verarbeiten gleichzeitig Bilder, Geräusche und Sprache. Die Zukunft der LLMs liegt ebenfalls in der Multimodalität. Modelle wie GPT-4 von OpenAI können bereits heute nicht nur Text, sondern auch Bilder als Input verarbeiten. So ist es möglich, dem Modell das Bild einer Webseite zu zeigen und es zu bitten, den entsprechenden HTML- und CSS-Code zu generieren. Zukünftige Modelle werden voraussichtlich auch Audio- und Videodaten nahtlos integrieren, was zu weitaus reichhaltigeren und intuitiveren Interaktionen führen wird. Dies eröffnet neue Möglichkeiten in der Bildung, der Unterhaltung und im Gesundheitswesen, wo beispielsweise die Analyse medizinischer Bilder mit der Auswertung von Patient*innenberichten kombiniert werden könnte.

Parallel dazu wird an fundamental neuen Modellarchitekturen geforscht. Das deutsche KI-Unternehmen Aleph Alpha hat beispielsweise eine Tokenizer-freie Architektur vorgestellt. Herkömmliche LLMs zerlegen Text in sogenannte „Tokens“ – feste Einheiten, die Wörter oder Wortteile repräsentieren. Dieser Prozess kann bei Sprachen mit komplexer Morphologie oder in hochspezialisierten Fachdomänen zu Ineffizienzen und Fehlern führen. Eine Architektur ohne Tokenizer verspricht eine flexiblere und präzisere Verarbeitung von Text in jeder Sprache und jedem Fachgebiet. Andere Ansätze wie Mixture of Experts (MoE), die im Modell Mixtral zum Einsatz kommen, aktivieren für eine gegebene Anfrage nur bestimmte Teile des neuronalen Netzwerks, was die Effizienz bei gleichbleibend hoher Leistung erheblich steigert.

Der ethische Kompass: Verantwortung in einer Ära der intelligenten Maschinen

Die rasanten Fortschritte in der LLM-Entwicklung werfen unweigerlich auch tiefgreifende ethische Fragen auf. Die Modelle werden auf Basis von Daten aus dem Internet trainiert und können daher bestehende gesellschaftliche Vorurteile und Stereotype reproduzieren und sogar verstärken. Die Bekämpfung dieser Voreingenommenheit (Bias) ist eine der größten Herausforderungen und erfordert eine sorgfältige Kuratierung der Trainingsdaten sowie kontinuierliche menschliche Überwachung.

Weitere ethische Bedenken umfassen den Schutz der Privatsphäre, da Modelle potenziell mit sensiblen Daten trainiert werden oder Informationen aus Benutzereingaben lernen könnten. Die Gefahr der missbräuchlichen Nutzung zur massenhaften Verbreitung von Desinformationen oder zur Erstellung schädlicher Inhalte ist ebenfalls real.

Aus diesem Grund wird die Entwicklung von robusten ethischen Richtlinien und Regulierungsrahmen, wie dem AI Act der Europäischen Union, immer wichtiger. Forschende und Unternehmen stehen in der Verantwortung, Transparenz über die Funktionsweise und die Grenzen der Modelle zu schaffen und sicherzustellen, dass die Technologie zum Wohle der Gesellschaft eingesetzt wird. Dieser verantwortungsvolle Umgang ist entscheidend, um das Vertrauen der Öffentlichkeit in KI-Systeme zu stärken und ihr transformatives Potenzial sicher zu entfalten.

Ausblick: Eine Zukunft der Mensch-KI-Kollaboration

Die Weiterentwicklung von Large Language Models steht an einem aufregenden Punkt. Die Forschung bewegt sich mit hoher Geschwindigkeit an mehreren Fronten gleichzeitig: Effizienzsteigerung, Präzisionsverbesserung, Erweiterung der Fähigkeiten und die Entwicklung neuer Architekturen und autonomer Agenten. Zukünftige Modelle werden nicht nur bessere Textgeneratoren sein; sie werden zu kognitiven Werkzeugen, die in der Lage sind, zu schlussfolgern, zu planen und kreativ Probleme zu lösen. Sie werden sich von statischen Wissensdatenbanken zu lernenden Systemen entwickeln, die ihr Wissen kontinuierlich anpassen und erweitern können. Die Vision ist nicht die einer KI, die den Menschen ersetzt, sondern die einer intensiven Mensch-KI-Kollaboration. LLMs werden zu wertvollen Partnern in Forschung, Kreativität und strategischer Entscheidungsfindung, indem sie repetitive Aufgaben automatisieren und Menschen dabei unterstützen, sich auf die Aspekte ihrer Arbeit zu konzentrieren, die Urteilsvermögen und menschliche Einsicht erfordern. Die Reise zur nächsten Generation von Sprachmodellen ist mehr als nur eine technische Herausforderung. Sie ist ein entscheidender Schritt auf dem Weg zu einer Zukunft, in der künstliche Intelligenz unser intellektuelles Potenzial erweitert und uns hilft, die komplexen Probleme unserer Zeit zu lösen.

Weiterführende Quellen: wikipedia.org introl.com neuron-ai.at erneuerbare-energie.at ingenieur.de agev.de all-ai.de chip.de exxcellent.de groq.com cryptoslate.com rdworldonline.com datacamp.com substack.com fraunhofer.de moin.ai databricks.com intrafind.com google.com fraunhofer.de datacamp.com empolis.com dnb.de b-i-t-online.de astera.com dataspark.de ultralytics.com ibm.com uipath.com ambersearch.de allaboutai.com cognizant.com focalx.ai aleph-alpha.com kinews24.de businessinsider.de startbase.de internet-weekly.de 4-talents.de lamarr-institute.org kit.edu gpt5.blog artificialintelligenceact.eu europa.eu twobirds.com artificial-intelligence-act.com

Logo renAIssance - Maßgeschneiderte AI-Lösungen

In diesem News Blog schreiben Mitarbeiter von ren-AI-ssance und Gastautoren zu allen Themen, die uns bewegen: Aktuelles aus dem Hause ren-AI-ssance, neue Trends, Innovationen und Best Practices rund um Künstliche Intelligenz (KI), Digitalisierung, Automatisierung und vieles mehr.

Newsletter

Datenschutz Ich möchte zukünftig regelmässig über KI News informiert werden. Mit dem Absenden akzeptiere ich die Datenschutzerklärung. Wir behandeln ihre Daten vertraulich und ausschließlich zu den vereinbarten Zwecken gemäß DSGVO.

Autor: Team ren-AI-ssance

Autor: Team ren-AI-ssance

Content & Support

Das ren-AI-ssance Team kümmert sich um die inhaltliche Gestaltung unserer Onlinekanäle. Folgen Sie uns gerne auch auf LinkedIn und bleiben Sie immer Up-to-date im Thema Künstliche Intelligenz.

Wir planen, schulen und implementieren Künstliche Intelligenz nicht nur, wir nutzen sie auch aktiv. Unsere Artikel wurden abschließend mit KI aufgearbeitet und von einem Menschen erneut überprüft bevor sie veröffentlicht wurden. 

Entdecken Sie mehr

Die neue Währung des Vertrauens: Warum Transparenz bei KI-Inhalten für Ihr Unternehmen unverzichtbar ist

Eine neue Ära der künstlichen Intelligenz hat begonnen und sie verspricht ungeahnte Effizienz, Kreativität und Wachstum. Doch mit der wachsenden Macht von Werkzeugen wie ChatGPT, Midjourney und Co. wächst auch eine neue, tiefgreifende Herausforderung: die Wahrung der...

Verantwortungsvolle KI: Ein unverzichtbarer Leitfaden

Die neue Ära der künstlichen Intelligenz und die unausweichliche Verantwortung Im Jahr 2025 wird künstliche Intelligenz weit mehr sein als nur ein nützliches Instrument; sie wird neue Möglichkeiten eröffnen, komplexe Herausforderungen bewältigen und den Fortschritt in...

Der nächste Horizont: Warum die Forschung an Allgemeiner Künstlicher Intelligenz (AGI) heute Ihre Unternehmensstrategie von morgen bestimmen kann

Jenseits der Automatisierung – Der Traum von einer denkenden Maschine Tagtäglich interagieren Sie und Ihre Teams mit KI-Systemen, die Prozesse optimieren, Daten analysieren und die Effizienz steigern. Von der intelligenten Produktionssteuerung bis zum personalisierten...

Die neuen KI-Architekturen für Ihr Unternehmen (MOE, LNNs, SSMs)

Werkzeuge wie ChatGPT und Midjourney sind aus dem unternehmerischen Alltag kaum noch wegzudenken und haben in Rekordzeit die Art und Weise, wie wir arbeiten, kommunizieren und kreativ sind, fundamental verändert. Der Hype um generative KI hat eine Welle der Euphorie...

Suchen

News & Social

In der heutigen Zeit müssen wir umdenken, alte Systeme, Prozesse und Gewohnheiten über Board werfen. Künstliche Intelligenz betrifft uns alle in einem Ausmaß, welches heute noch schwer fassbar ist. In dieser Zeit wollen wir mit Ihnen Wissen, Erfahrung und Praxistipps teilen, um gemeinsam die Zukunft aktiv zu gestalten.

Folgen Sie uns auf LinkedIn oder schauen Sie regelmäßig auf unserer Homepage für News und Tipps vorbei.

Sie sind Selbstständig, CEO, Geschäftsführer:in, Unternehmer:in, IT-Manager:in, KI-Ingenieur:in oder beschäftigen sich mit Künstlicher Intelligenz und auf der Suche nach einem professionellen Netzwerk?

Gerne können Sie uns eine E-Mail an service@ren-ai-ssance.de um weitere Informationen zu unserem Netzwerk zu erhalten.

FAQ

Sie Fragen – Wir Antworten

Künstliche Intelligenz transformiert unseren Arbeitsalltag auf faszinierende Weise. Märkte und ganze Branchen ändern sich rasant. Wer hier mithalten will, kommt um die Anwendung von KI und Maschine Learning nicht herum.

Eine rechtskonforme, nachhaltige und sinnvolle Nutzung ist dabei unerlässlich und fördert die Akzeptanz und das Vertrauen in innovative Technologien.

Sie haben noch Fragen? Wir freuen uns darauf Sie kennen zu lernen!

Stellen Sie uns Ihr KI- Projekt vor. Wir freuen uns auf Ihre Nachricht!!

Datenschutz Ich möchte weiteres Infomaterial erhalten und von ren-AI-ssance direkt kontaktiert werden. Mit dem Absenden akzeptiere ich die Datenschutzerklärung. Wir behandeln Ihre Daten vertraulich und ausschließlich zu den vereinbarten Zwecken gemäß DSGVO!

Was genau macht ren-AI-ssance?

ren-AI-ssance begleitet Unternehmen auf dem Weg zur erfolgreichen Nutzung Künstlicher Intelligenz – von der Entwicklung individueller Strategien über die Implementierung bis hin zu Schulungen und kontinuierlicher Optimierung. Wir bieten maßgeschneiderte, DSGVO- und EU AI Act-konforme Lösungen, die messbare Mehrwerte schaffen.

Wer sind unsere Kunden?

Unsere Leistungen richten sich an Unternehmen jeder Größe und Branche. In der Regel sind dies KMU aus Deutschland, Österreich und der Schweiz (D/A/CH) – vom Freelancer über Mittelständler bis zum (klein-) Konzern. Besonders profitieren Organisationen, die Digitalisierung vorantreiben, Prozesse optimieren und mit KI wettbewerbsfähig bleiben wollen von einer Zusammenarbeit mit uns.

 

Welche Vorteile bietet mir eine Zusammenarbeit?

Sie profitieren von produktivitätssteigernden, rechtssicheren und wirtschaftlich sinnvollen KI-Lösungen. Darüber hinaus begleiten wir Sie partnerschaftlich, nachhaltig und mit einem praxiserprobten, ganzheitlichen Ansatz – immer mit Fokus auf Ihre individuellen Ziele.

Wie läuft ein typisches KI-Projekt bei uns ab?

Zunächst analysieren wir Ihre IST-Situation und identifizieren Potenziale. Danach entwickeln wir gemeinsam eine AI-Roadmap, implementieren Pilotlösungen und begleiten Sie bei der unternehmensweiten Einführung. Schulungen, Testphasen und langfristige Optimierung runden das Projekt ab.

Welche Technologien und KI-Anwendungen werden eingesetzt?

Wir arbeiten technologieoffen – je nach Projekt z. B. mit Machine Learning, Natural Language Processing (NLP), Computer Vision oder Data Analytics. Die Auswahl erfolgt immer passgenau auf Ihre Anforderungen und IT-Infrastruktur abgestimmt (Cloud oder lokal, Misch-Formen).

Was unterscheidet ren-AI-ssance von anderen KI-Beratungen?

Neben fundierter Fachkompetenz und praxisnaher Umsetzung legen wir besonderen Wert auf Kreativität, Menschzentrierung und Compliance. Unser Name steht für einen Neustart im Denken – wir kombinieren technisches Know-how mit Renaissance-Spirit: Neugier, Mut und Innovation.

Gibt es einen Branchenfokus?

Kurz und knapp: Nein. Unser Netzwerk umfasst über 300 Unternehmen aus verschiedensten Bereichen, z. B. Logistik, Industrie, Handel, Gesundheitswesen oder Dienstleistung. Durch diese Vielfalt können wir branchenspezifisch und zielgerichtet beraten.

Bietet ren-AI-ssance auch Schulungen für unsere Mitarbeitenden an?

Ja. Wir bieten Grundlagenschulungen, z. B. zur rechtssicheren Nutzung von KI, sowie praxisnahe Fachtrainings wie Prompt Engineering. Inhalte und Umfang werden individuell an Ihre Unternehmensstruktur und Lernziele angepasst.

Wie kann ich den ersten Schritt mit ren-AI-ssance machen?

Ganz einfach: Kontaktieren Sie uns für ein unverbindliches Erstgespräch.

Entweder via E-Mail an service@ren-ai-ssance.de oder über unser Kontaktformular.

Gemeinsam analysieren wir Ihre Ausgangssituation, besprechen Ziele und finden heraus, wie KI in Ihrem Unternehmen echten Mehrwert schaffen kann.

Share via