Kontakt
Pattern

Risiken von generativer KI in Unternehmen und wie man sie bewältigt

Generative KI ist im Begriff, die Geschäftswelt zu revolutionieren, aber Unternehmen müssen bei der Einführung dieser bahnbrechenden Technologie vorsichtig sein. In diesem Artikel erläutern unsere Experten die Risiken der generativen KI, darunter Halluzinationen, Verzerrungen, Bedenken hinsichtlich der Datensicherheit, ethische Bedenken in Bezug auf die Verdrängung von Arbeitsplätzen und rechtliche Implikationen in Bezug auf geistige Eigentumsrechte. Sie geben auch Ratschläge und Erfahrungen aus erster Hand, wie Sie diese Risiken handhaben können, um eine sichere und verantwortungsvolle Nutzung zu gewährleisten.

Generative KI entwickelt sich rasch zu einem globalen Phänomen, und ihre Anwendungsfälle – von der Erstellung von Inhalten in einem Augenblick bis hin zum Einsatz von virtuellen Kundendienstmitarbeitern – werden die Art und Weise, wie wir Geschäfte machen, revolutionieren.

Und obwohl viel über den Einfluss dieser revolutionären Technologie auf die Gesellschaft diskutiert wird, werden ihre negativen Auswirkungen auf Unternehmen oft übersehen.

In diesem Artikel gehen die NETCONOMY-Experten für generative KI – Boban (Development Lead) und Manuela (Experience Management Consulting Lead) – detailliert auf die Risiken generativer KI ein und teilen ihre Erfahrungen aus erster Hand, wie diese zu bewältigen sind.

Die fünf Hauptrisiken der generativen KI für Unternehmen sind:

 

 

Zuverlässigkeit von generativen KI-Ergebnissen

Die größte Sorge über generative KI für datengesteuerte Unternehmen ist die Genauigkeit ihrer Ergebnisse, insbesondere das Risiko von Halluzinationen. Bei diesen Halluzinationen handelt es sich um Fälle, in denen KI Antworten generiert, die falsch oder irrelevant sind. Und da diese Antworten selbstbewusst formuliert sind und von einer soliden Logik untermauert zu sein scheinen, erscheinen sie oft als wahr.

Ungenaue Antworten stellen für Unternehmen ein erhebliches Risiko dar, da sie zu Fehlinformationen und Verwirrung führen können. Und wenn Sie es sich zur Gewohnheit gemacht haben, Entscheidungen auf der Grundlage von Daten zu treffen, führt dies letztendlich dazu, dass Ihr Ruf und das Vertrauen Ihrer Kunden Schaden nehmen. Erschwerend kommt hinzu, dass große Sprachmodelle selten zweimal die gleiche Ausgabe produzieren, was die Überprüfung von Fakten erschwert.

„Grounding“ und Testing

Unternehmen können jedoch Maßnahmen ergreifen, um das Risiko von Halluzinationen durch den Prozess „Grounding“ zu verringern. Beim Grounding geht es darum, das KI-System auf zuverlässige Daten oder eine Quelle der Wahrheit zu stützen.

Der RAG-Ansatz (Retrieval-augmented generation) beispielsweise nutzt das Grounding, indem er relevante Dokumente (z. B. Ihre Produktdokumentation) abruft und darauf basierende Antworten generiert.

Eine weitere Möglichkeit, Ihr Modell zu testen, besteht darin, die Ausgabe mit einem Datensatz zu vergleichen, den Sie als die Wahrheit ansehen. Wenn Sie einen Q&A-Chatbot einrichten, wären die Antworten Ihrer Kundendienstmitarbeiter die Wahrheit.

Dann bitten Sie das System, die gleichen Fragen zu beantworten, und vergleichen die beiden Datensätze. Anhand der Ergebnisse können Sie erkennen, wie genau das Modell ist und welche Lücken Sie möglicherweise schließen müssen.

Schulung von Kunden und Teams

Die Verbesserung der generativen KI geht jedoch über technologische Fortschritte hinaus; Unternehmen müssen auch in die Schulung ihrer Mitarbeiter und Kunden investieren.

Viele Teams glauben fälschlicherweise, dass die Datenqualität bei generativer KI keine Rolle spielt, da sie in der Lage ist, unstrukturierte Daten zu lesen. Allerdings gilt immer noch das Sprichwort „Garbage in, garbage out“ (Müll rein, Müll raus), daher ist es wichtig, dass zuverlässige Daten in das System eingespeist werden.

Auf der anderen Seite müssen sich die Nutzer der Fähigkeiten und Grenzen der generativen KI bewusst sein und sie mit entsprechenden Annahmen und Überlegungen einsetzen.

User Feedback

Schließlich ist ein kontinuierliches Nutzerfeedback für die Verbesserung generativer KI-Modelle unerlässlich. In unseren Projekten machen wir es den Nutzern leicht, Feedback zu den erhaltenen Antworten zu geben, indem wir ihnen die Möglichkeit geben, KI-Antworten zu favorisieren oder abzulehnen.

Um mehr Klarheit zu schaffen, können Sie sie fragen, warum eine bestimmte Antwort nicht gut war (z. B. wenn sie nicht relevant war) und sogar eine Option für einen Kommentar hinterlassen, um zusätzlichen Kontext zu erhalten. Dieses Feedback hilft, Lücken im Modell zu erkennen und Strategien zu entwickeln, um diese zu beheben.

Risiko von Vorurteilen durch generative KI

Die meisten generativen KI-Modelle werden auf Daten trainiert, die aus dem Internet stammen. Es mag zwar verlockend sein, anzunehmen, dass das Internet ein gutes Abbild der Welt ist, aber das ist weit von der Wahrheit entfernt.

Der Zugang zum Internet ist nicht gleichberechtigt, und viele Teile der Gesellschaft werden nicht gehört oder sind ausgegrenzt.

Infolgedessen können unsere breiteren gesellschaftlichen Vorurteile in generative KI-Modelle einfließen, die dann:

  • Stereotypen verstärken (z. B. durch die Inhalte, die sie erzeugen)
    diskriminierende Entscheidungen treffen

Unternehmen sollten als ersten Schritt zur Entschärfung dieses Problems die Verwendung hochwertiger Datenquellen (z. B. First-Party-Daten) priorisieren. Darüber hinaus sollten sie aktiv daran arbeiten, Verzerrungen in ihren Datensätzen zu erkennen und zu beseitigen. Dazu können Strategien wie die Diversifizierung der Trainingsdaten gehören, um eine größere Vielfalt zu erreichen.

Ein weiterer Ansatz besteht darin, die KI-Modelle von Menschen anleiten zu lassen – eine Praxis, die als „Reinforcement Learning from Human Feedback“ bekannt ist. Dieses Verfahren ist zwar nicht explizit auf die Bekämpfung von Voreingenommenheit ausgerichtet, kann aber sehr vorteilhaft sein, wenn die Unternehmen die Kapazitäten und das Fachwissen haben, um es umzusetzen.

Transparenz ist auch entscheidend, wenn Sie wollen, dass Ihr generatives KI-Modell frei von Einseitigkeiten ist. Häufig arbeiten KI-Modelle als Blackbox, so dass die Nutzer nicht wissen, welcher Prozess hinter einem bestimmten Ergebnis steht.

Das Aufkommen von Explainable AI (XAI) zielt darauf ab, dies zu ändern, indem die Interpretierbarkeit und Erklärbarkeit eines Modells gemessen wird. Diese Transparenz ermöglicht es Nutzern und Experten, das „Wie“ und das „Warum“ hinter einer bestimmten Antwort zu verstehen und Feedback zu geben.

Darüber hinaus gibt es eine wachsende gesellschaftliche Nachfrage nach einer ethischen KI-Entwicklung, die auch die Perspektiven von Randgruppen berücksichtigt. Initiativen wie die Beobachtungsstelle für KI-Politik der OECD und die Bemühungen verschiedener Freiberuflernetzwerke unterstreichen dieses Engagement.

Datenschutz und Sicherheitsrisiken von generativer KI

Generative KI birgt für Unternehmen zwei erhebliche Risiken in Bezug auf Datenschutz und Sicherheit:

  • Extern – wenn Kunden vertrauliche Informationen weitergeben, die gespeichert und (potenziell) missbraucht oder offengelegt werden.
  • Intern – wenn Mitarbeiter versehentlich vertrauliche Unternehmensdaten durch Eingabeaufforderungen weitergeben.

Wenn Ihr Unternehmen Kundendaten zum Trainieren von Modellen verwendet, müssen Sie diese Daten zunächst anonymisieren. Hierfür stehen mehrere Methoden zur Verfügung, z. B. Maskierung (Ersetzen dieser Informationen durch gleichwertige Zufallszeichen oder gefälschte Daten) oder Tokenisierung (Austausch der Informationen durch ein einzigartiges Symbol).

Bei NETCONOMY verwenden wir die Data Loss Prevention-Lösung von Google, um sicherzustellen, dass alle persönlich identifizierbaren Informationen (PII) automatisch identifiziert und anonymisiert werden, bevor sie in unsere Modelle eingespeist werden.

Im Falle von KI-Chatbots oder Einkaufsassistenten besteht ein zusätzliches Risiko, da diese Lösungen oft kritische Informationen wie Kreditkartendaten verarbeiten.

In diesen Situationen ist es entscheidend, diese Informationen nur so lange wie nötig zu speichern (z. B. bis sie an den Zahlungsanbieter weitergeleitet werden) und sicherzustellen, dass sie anschließend aus Ihren Protokollen gelöscht werden, um einen unbefugten Zugriff zu verhindern.

Intern müssen Unternehmen in die Schulung ihrer Mitarbeiter investieren (was wir bereits erwähnt haben) und außerdem geprüfte und konforme generative KI-Tools bereitstellen.

Generative KI-Lösungen werden nicht verschwinden, und sie nicht zu nutzen, würde Sie nur davon abhalten, große Vorteile zu erzielen. Die Frage, die Sie sich stattdessen stellen müssen, lautet: Wie können wir diese Tools intern auf sichere Weise verfügbar machen?

Schließlich verkompliziert die Komplexität der digitalen Landschaft diese Fragen der Datensicherheit noch weiter. Nehmen wir zum Beispiel an, Sie wollen Ihre Kundendatenlösung mit einer generativen KI-Lösung eines anderen Anbieters verbinden.

In diesem Fall gelten alle bisherigen Ratschläge zur Anonymisierung. Da nun aber zwei Lösungen zusammenarbeiten, müssen Sie sicherstellen, dass diese doppelt befolgt werden.

Die Situation kann noch komplexer werden, wenn man bedenkt, wer Zugriff auf beide Lösungen hat, ob beide angemessen gewartet werden usw.

Ethische Risiken generativer KI

Die bedeutendsten ethischen Herausforderungen der generativen KI für die Gesellschaft als Ganzes stehen im Zusammenhang mit Deepfakes, die von der Realität kaum noch zu unterscheiden sind. Die ethischen Risiken für Unternehmen drehen sich jedoch in erster Linie um den möglichen Abbau von Arbeitsplätzen, ein häufiges Ergebnis technologischer Revolutionen.

Der Begriff „Computer“ wurde früher für Menschen verwendet, die lange, komplexe mathematische Berechnungen zur Unterstützung wissenschaftlicher oder geschäftlicher Arbeiten durchführten. Dies änderte sich jedoch mit der Einführung von Digitalrechnern erheblich.

Die derzeitige Revolution der generativen KI hat jedoch das Potenzial, unser Arbeitsumfeld innerhalb weniger Jahre und nicht erst in Jahrzehnten umzugestalten. Diese verkürzte Zeitspanne übt zusätzlichen Druck auf die Unternehmen aus, um sicherzustellen, dass sie im Streben nach Profit ihre umfassendere gesellschaftliche Verantwortung nicht vernachlässigen.

Nehmen wir das Beispiel der Softwareentwickler. Mit der Einführung von GitHub Copilot könnten Unternehmen versucht sein zu glauben, dass sie keine Nachwuchsentwickler mehr brauchen.

Diese Unternehmen übersehen jedoch die Tatsache, dass jahrelange praktische Erfahrung und angesammeltes Wissen entscheidend für den Aufstieg in höhere Positionen sind, z. B. als Softwarearchitekt.

Durch die Streichung dieser Juniorpositionen riskieren die Unternehmen, dieses wichtige Know-How zu verlieren und möglicherweise ihren langfristigen Erfolg zu gefährden.

Einfache Tätigkeiten sind besonders anfällig für die Auswirkungen der KI. Unternehmen müssen proaktiv für die Zukunft planen, indem sie den Übergang dieser Arbeitnehmer in Rollen erleichtern, die ihren Fähigkeiten und Erfahrungen entsprechen, oder indem sie Möglichkeiten für eine Höherqualifizierung in neue Positionen bieten.

Schließlich dürfen wir nicht vergessen, dass diese Technologie neue Arbeitsplätze schaffen wird, die neue Fähigkeiten und Arbeitsmethoden erfordern, die wir uns noch gar nicht vorstellen können – ähnlich wie sich die „menschlichen Computer“ der Vergangenheit die Arbeit der modernen Softwareentwickler vor der Ankunft des ersten digitalen Computers nicht vorstellen konnten.

Intellectual Property and Legal Risks of Generative AI

Wir wissen, dass die meisten KI-Modelle anhand einer Reihe von Internetinhalten trainiert werden. Daher ist es nur logisch, dass ein Großteil dieser Inhalte dem Schutz des geistigen Eigentums und des Urheberrechts unterworfen ist.

Dies wurde schmerzlich deutlich, als Getty das Unternehmen Stability AI verklagte, weil es angeblich über 12 Millionen seiner Fotos zum Trainieren von KI-Modellen verwendet hatte. Dies war leicht nachzuweisen, da einige der vom Stability-Modell produzierten Bilder auch das Getty-Wasserzeichen enthielten.

Dieses Beispiel zeigt deutlich, warum es für Unternehmen riskant ist, Inhalte zu verwenden, die aus urheberrechtlich geschütztem Material erstellt wurden. Und obwohl sowohl OpenAI als auch Google inzwischen anbieten, ihre Kunden vor urheberrechtlichen Anfechtungen zu schützen, wird das Problem dadurch nicht beseitigt.

Selbst bei der Verwendung frei verfügbarer Daten aus dem Internet stellen sich weitergehende Fragen.

Stellen Sie sich ein Szenario vor, in dem ein Unternehmen Daten von der Website eines Konkurrenten abgreift und ein KI-Modell einsetzt, um dessen Preise automatisch und in Echtzeit zu unterbieten.

Auch wenn diese Informationen nicht urheberrechtlich geschützt sind, stellt sich die Frage, ob wir ein solches Geschäftsverhalten gutheißen sollten.

Man könnte sagen, dass man dies auch manuell tun kann, indem man die Website eines Konkurrenten überprüft und seine eigenen Preise aktualisiert. Aber das Ausmaß und die Geschwindigkeit, mit der generative KI dies erreichen kann, führt zu umfassenderen gesellschaftlichen Auswirkungen.

Die Branche gleicht derzeit einer Spielwiese mit vielen Grauzonen. Und viele Unternehmen fragen sich, ob ihr Anwendungsfall gegen künftige Vorschriften verstoßen könnte.

Daher ist es von entscheidender Bedeutung, den richtigen Partner zu haben, der bei der Navigation hilft und potenzielle Herausforderungen und Risiken aufzeigt, die nachgelagert auftauchen könnten.

Abschließende Überlegungen zu den Risiken generativer KI für Unternehmen

Abschließend muss man sich darüber im Klaren sein, dass jede neue Technologie, auch die generative KI, mit Risiken behaftet ist. Diese Risiken, zu denen Datensicherheit, ethische Bedenken und Fragen des geistigen Eigentums gehören, stellen erhebliche Herausforderungen dar.

Das bedeutet jedoch nicht, dass Unternehmen den Einsatz generativer KI-Modelle und ihre vielen Vorteile vermeiden sollten – ganz im Gegenteil.

Sie müssen sich mit den Fähigkeiten, Grenzen und zugrunde liegenden Mechanismen vertraut machen. Auf diese Weise können sie die Risiken besser beherrschen und sicherstellen, dass ihr Einsatz von generativer KI mit den gesellschaftlichen und rechtlichen Erwartungen in Einklang steht.

Share:

Authors and Contributors

Boban Djordjevic | Development Lead, NETCONOMY

Als Teil unseres Teams für Machine Learning ist Boban für die Bearbeitung von Initiativen rund um Daten und KI verantwortlich. Er unterstützt Pre-Sales-Aktivitäten durch die Bereitstellung von technischem Input, entwirft High-Level-Architekturen und unterstützt Kunden bei der Auswahl des richtigen Lösungsansatzes.

Manuela Fritzl | Experience Management Consulting Lead, NETCONOMY

Bei NETCONOMY ist Manuela für das Thema Experience Management verantwortlich. Dazu gehört die Recherche von Trends, Nutzern und Themen ebenso wie die Planung und Erstellung von Experience-Management-Programmen.

Nikola Pavlovic | Content Marketing Manager, NETCONOMY

Nikola ist ein erfahrener Inhalts- und Kommunikationsexperte, der davon überzeugt ist, dass kraftvolles Storytelling der Schlüssel zum Aufbau von Marken, zur Aufklärung des Publikums und zur Entwicklung von Marketingkampagnen ist, die etwas bewirken.