Einem aktuellen Bericht von McKinsey zufolge hat die „generative KI das Potenzial, die Anatomie der Arbeit zu verändern“ und wird „die Arbeitsproduktivität in der gesamten Wirtschaft erheblich steigern“. Zum Zeitpunkt der Erstellung des Berichts wurden 63 Anwendungsfälle für generative KI (kurz GenKI) identifiziert, die sich auf 16 Geschäftsbereiche erstrecken – das vermittelt eine gute Vorstellung vom Umfang der potenziellen Veränderungen. Produktivität, Effizienz und Effektivität sind die heiligen Grale für jedes Unternehmen, das in einer sich wandelnden Welt langfristig erfolgreich sein will. Daher wurde diese Nachricht mit grosser Begeisterung aufgenommen.
Inmitten der Aufregung taucht allerdings immer wieder ein Wort auf: Risiko. Schliesslich steckt die generative KI immer noch in den Kinderschuhen. Unternehmen müssen daher sorgfältig darüber nachdenken, wie sie diese Technologie einsetzen wollen und welche Folgen das haben könnte. „Das ist eine Frage der Risikotoleranz und der Risikobereitschaft“, sagt Quentyn Taylor, Senior Director, Information Security and Global Response bei Canon EMEA. „Sind wir zum Beispiel bereit zu akzeptieren, dass eine KI, die auf Kundenanfragen antwortet, sich auch gelegentlich irren wird?“ Dies ist eine typische Möglichkeit, wie GenKI zur Steigerung der Effizienz eingesetzt werden kann. Quentyn Taylor betont jedoch, dass man sich dabei die Frage stellen muss: Wie hoch ist das Risiko für die Reputation, wenn ein Kunde falsche Informationen erhält? Es kommt ganz auf das Produkt und den Kunden an. Und das ist die grosse Herausforderung für das Unternehmen: Ein klares Verständnis dafür zu haben, wo GenKI einen echten Mehrwert bringen kann und wo das mögliche Risiko nicht akzeptabel ist. Es ist daher von entscheidender Bedeutung, die möglichen Risiken genau zu verstehen, bevor man überhaupt eine Entscheidung trifft.
Schutz des geistigen Eigentums und vertraulicher Informationen
Dies ist der Bereich, mit dem sich die meisten Unternehmen am unmittelbarsten befasst haben. Einige haben die Nutzung generativer KI Tools und Dienste pauschal verboten, um die Privatsphäre des Unternehmens zu schützen und zu wahren. Im Grunde werden nämlich alle in ein GenKI Modell eingegebenen Informationen automatisch zu Trainingsdaten. Bittet man die KI also, eine Rede für eine interessante Produktveröffentlichung zu schreiben und gibt dabei alle Details zu diesem Produkt ein, dann hat man im Grunde genommen für das eigene Geschäft entscheidende und unter strengem Verschluss gehaltene Informationen in ein weltweit genutztes Tool hochgeladen. Wenn Ihr Unternehmen von seinem geistigen Eigentum lebt, dann ist das ein völlig inakzeptables Risiko. „Andererseits“, so Quentyn Taylor, „ist es ein Problem, wenn man mit Hilfe der generativen KI 300 leicht variierende Beschreibungen für bestehende Produkte schreiben lässt? Wahrscheinlich nicht.“ Eine weitere Perspektive, die es zu berücksichtigen gilt, ist der Aufwand für die Überwachung des Themas im Vergleich zum Ergebnis: „Ist das Nicht-Nutzen von GenKI eine effektive Nutzung unserer Zeit? Können wir den Zugang vollständig blockieren, wenn jeden Tag Tausende neuer Tools auf den Markt kommen?“, fragt er.
Entscheidungsfindung, Voreingenommenheit und Kommunikation
Wer ist verantwortlich? Natürlich beginnt die Entscheidungsfindung an der Spitze des Unternehmens, aber wenn der Vorstand über den Einsatz von generativer KI urteilen soll, muss der Prozess kristallklar sein. Ebenso klar ist, dass bei der Verwendung von GenKI als Werkzeug zur Analyse von Optionen zur Steigerung von Produktivität und Rentabilität eine gewisse Voreingenommenheit vorhanden ist. Es ist allgemein bekannt, dass die Menge an Trainingsdaten enorm sein muss, damit ein KI-Modell auch nur annähernd frei von solcher Voreingenommenheit ist, aber selbst dann gibt es noch Verzerrungen. Aus diesem Grund verzichten viele Organisationen auf den Einsatz solcher Instrumente in wichtigen Entscheidungsbereichen, wobei die Einstellung von Mitarbeitern in diesem Zusammenhang häufig als ein solch problematischer Fall angesehen wird. Quentyn Taylor unterstreicht das, indem er feststellt: „Man muss immer den Kontext verstehen, in dem KI-gestützte Entscheidungen getroffen werden sollen.“ „Und das muss dem Rest des Unternehmens klar mitgeteilt werden, weil sonst die Gefahr besteht, dass Verwirrung und Misstrauen gegenüber der Entscheidungsebene entsteht.“ Das ist besonders wichtig, wenn man bedenkt, wie oft organisatorische Entscheidungen „aufgeschlüsselt“ werden müssen, um die oft sehr nuancierte Grundlage zu verstehen, auf der Massnahmen beschlossen wurden.
Verletzung des Urheberrechts
Zurzeit laufen einige viel beachtete Gerichtsverfahren, bei denen die Kläger der Meinung sind, dass ihre kreative Arbeit ohne ihre Zustimmung zum Training einer KI verwendet wurde. Und es gibt nur wenige schwerwiegendere Bedenken im Zusammenhang mit generativer KI als die Frage nach der Rechtmässigkeit der von ihr erstellten Inhalte. Ja, es gibt einige neue Tools (z.B. Adobe Firefly), die ausschliesslich auf Daten in rechtmässigem Besitz trainiert sind, aber bei anderen gibt es derzeit wenig bis gar keine Klarheit darüber, wie sicher deren Verwendung z.B. für die Erstellung von Bildern für eine Social-Media-Kampagne oder den Entwurf einer neuen Markenidentität ist. Bei der Zusammenarbeit mit Dritten im Rahmen solcher Aktivitäten sieht Quentyn Taylor es als sinnvoll an, „Verträge entsprechend anzupassen oder zu aktualisieren, um das Risiko zu mindern, und sicherzustellen, dass intern klare Leitlinien und Richtlinien vorhanden sind“.
Wenn GenKI Lügen erzählt
Vielleicht haben Sie den Begriff „Halluzinationen“ im Zusammenhang mit GenKI schon einmal gehört. Einfach ausgedrückt heisst das: Ein KI-Modell erzeugt eine falsche oder unrealistische Antwort. Es könnte etwas Albernes sein, wie ein komplett erfundenes Wort oder ein unsinniger Satz. Oder die KI könnte trotz guter Absicht eine falsche Information geben, wie es zwei Anwälten passierte, die vor Gericht sechs Fallbeispiele präsentierten, die sich als völlig fiktiv herausstellten. Später fand man heraus, dass diese von ChatGPT erstellt worden waren, und die Anwälte wurden zu einer Geldstrafe von 5.000 Dollar verurteilt. KI-Experten sehen das Problem und machen „Fortschritte“, aber in der Zwischenzeit ist dies ein Bereich mit aussergewöhnlichen Risiken für Unternehmen und ihre Führungskräfte. „Faktencheck, Faktencheck, Faktencheck“, betont Quentyn Taylor „Das ist für alle eine der wichtigsten Aufgaben, wenn wir KI zur Generierung von zugrunde liegenden Inhalten einsetzen. Wir müssen gewissenhafte und effiziente Redakteure sein.“ Er warnt auch vor den Risiken des Einsatzes von GenKI Bots zur Überwachung und Reaktion auf Social Media. „Ihr Bot könnte beginnen, Antworten zu geben, die theoretisch durchaus richtig sein könnten – nur nicht im Kontext zu der Frage, die gestellt wurde.“
Insgesamt ist Quentyn Taylor zuversichtlich, dass viele Unternehmen KI als „Hintergrundnutzen“ übernehmen werden, wo sie in bereits verwendete Dienste und Tools integriert ist oder über diese angeboten wird. In diesen Fällen wird ein Grossteil des Risikos bereits durch Verträge mit Dritten und durch den Einsatz von Lösungen bekannter, angesehener und bewährter Partner eingeschränkt. „Ein Unternehmen könnte KI einsetzen, um E-Mails nach Phishing-Betrug zu durchsuchen“, erklärt er. „Das ist nichts, was sie selbst programmieren oder entwickeln werden, aber sie werden von der Nutzung von Tools profitieren, die diesen Service anbieten.“ Letztlich muss jedes Unternehmen mit einem erheblichen Mass an Risikomanagement umgehen, und die neuen Möglichkeiten, die sich durch die generative KI ergeben, sind in dieser Hinsicht nichts anderes.
Weitere Geschichten
-
Der kleine Entdecker: Das Innenleben der Canon Mikro-Satelliten
Sie sind klein, leicht und kosteneffizient und lassen sich vom Katastrophenschutz bis hin zur Klimabeobachtung in verschiedensten Bereichen als äußerst nützliche Helfer einsetzen. Wir stehen an der Spitze dieser Entwicklung. Hier erklären wir, was Mikrosatelliten sind und welches enorme Potenzial sie für Bereiche wie Klimabeobachtung und Kartografie mitbringen.
-
Die Zukunft von Halbleiter-Chips: Ist Nanoimprint-Lithografie die nächste große Innovation?
Seit Jahrzehnten werden sie immer kleiner und leistungsfähiger, aber werden Computerchips bald an ihre Grenzen stoßen? Oder ist die Nanoimprint-Lithografie die Zukunft?
-
Herausragende Tinten für Displays der nächsten Generation
In Sachen Forschung und Entwicklung ist Canon mit Weltneuheiten vertraut. Der neueste Durchbruch präsentiert sich in Form von Tintenpunkten in Nanogröße mit riesigem Potential.