Deutsche sind “early stage”

Das Interview mit Mario Lenz

Achim Halfmann

Wo steht Deutschland in Bezug auf die Nutzung von Künstlicher Intelligenz (KI)? Welche Anwendungsfälle gibt es? Und was sollten Unternehmen beim verantwortungsvollen Einsatz beachten? Darüber sprach das CSR MAGAZIN mit dem Informatiker Mario Lenz, Chief Product Officer von Quentic, einem Anbieter von Software und Services für Health, Safety & Environment sowie Corporate Social Responsibility. Das Gespräch führte Achim Halfmann.

CSR MAGAZIN: Digitalisierung und KI sind in aller Munde. Wie weit fortgeschritten sind deutsche Unternehmen in diesen Bereichen?

Dr. Mario Lenz: Stellen Sie sich eine dreistufige Leiter vor: Die erste Stufe besteht darin, sämtliche Prozesse zu digitalisieren und zentrale Plattformen zu schaffen, in denen Daten zusammenfließen. Im zweiten Schritt werden Mitarbeiter eingebunden und Zugänge vereinfacht. Erst auf dem dritten Level können Unternehmen das Mehr an Daten auswerten und KI nutzbringend einsetzen, indem Technologien konkrete Maßnahmen vorschlagen. Es geht bei KI darum, dass Maschinen intelligente Leistungen wie Lernen, Urteilen und das Lösen von Problemen erbringen. Algorithmen erkennen bestimmte Muster in unstrukturierten Datensätzen wie Texten, Bildern oder gesprochener Sprache. Sie bilden die Basis dafür, dass Maschinen selbstständig Entscheidungen treffen. In Deutschland befinden wir uns bei den meisten Unternehmen noch in der „early stage“, also zwischen der ersten und zweiten Stufe. Die Bedeutung von KI nimmt jedoch immer mehr zu. 

Welche Formen von KI lassen sich unterscheiden?  

Mit starker KI beschreiben Wissenschaftler eine Intelligenz, die der menschlichen entspricht – oder sie sogar übertrifft. Sie verfügt über ein logisches Denkvermögen, kann eigenständig planen und lernen sowie Entscheidungen auch in unsicheren Situationen treffen. Diese Form handelt nicht mehr reaktiv, sondern aus eigenem Antrieb heraus. Beispiele hierfür finden Sie in Filmen wie „Star Trek“ oder „I, Robot“. Trotz aller Forschung sind wir davon sehr weit entfernt. KI besitzt aktuell kein Verständnis von Zeit, Raum oder Kausalitäten. Sie versteht keine Zusammenhänge und ist weniger intelligent als ein Kleinkind. Im Gegensatz dazu wird schwache KI für bestimmte Anwendungsszenarien entwickelt. Diese reichen von personalisierter Werbung und Autovervollständigung von Suchvorgängen über automatische Übersetzungen bis hin zu dynamischen Preisen bei Onlineversandhändlern.

Wann ist der Einsatz von KI ethisch bedenklich?

Wie bei jedem Werkzeug besteht natürlich ein Risiko des Missbrauchs oder der schlechten Umsetzung. Sollten Menschen irgendwann in der Lage sein, eine starke KI zu entwickeln, werden ethische Fragen noch bedeutsamer als sie es heute schon sind. China baut zurzeit mithilfe von schwacher KI ein „Social Credit System“ auf, mit dem Bürger digital überwacht, bewertet und erzogen werden sollen. Das heißt, dass es z.B. Punkte für den Kauf von gesunder Nahrung und Abzüge für unerwünschtes Surfverhalten gibt. Um solche und andere negative Szenarien zu verhindern, hat die Europäische Union im April Ethikrichtlinien für den Umgang mit KI veröffentlicht. Aufkommende Technologien sollen gesellschaftliche Schäden vermeiden, die menschliche Autonomie respektieren, fair agieren und erklärbar bleiben. Auch einige Technologiekonzerne setzen sich in ihren Richtlinien bereits mit Fragen wie dem Schutz der Privatsphäre, möglicher Diskriminierung von Menschen und der Beherrschbarkeit von KI auseinander. Ich bin davon überzeugt, dass man sich bereits vor der Entwicklung sämtliche potentielle Risiken bewusst machen muss. KI soll das Leben von Menschen verbessern und darf keine Gefahr für sie darstellen!

CSR MAGAZIN: Mit ihrer Software-Plattform Quentic zielen Sie auf eine Stärkung von Arbeitssicherheit, Umweltschutz und Nachhaltigkeit in Unternehmen. Im Bereich Arbeitsschutz testen Sie verschiedene KI-Piloten. Wie sehen diese Arbeitssicherheits-Pilotprojekte genau aus? 

Im Rahmen der unternehmerischen Verantwortung müssen Firmen ihre ökologischen, ökonomischen und sozialen Handlungsfelder bewerten. Hierzu gehört auch, Arbeitsschutz entlang der gesamten Wertschöpfungskette sicherzustellen. Mit einem digitalen Assistenten wollen wir Barrieren auflösen, die vor allem aus weiten Wegen, wenig Zeit oder bestehender IT-Infrastruktur resultieren. Er könnte via Smartphone einen ortsunabhängigen und direkten Zugriff auf sämtliche sicherheitsrelevante Daten bieten. KI kommt zum Einsatz, um Wissen unmittelbar abzubilden, erhobene Daten auszuwerten und relevante Informationen zu bündeln. Conversational Interfaces, die auch bei Google-Chatbots oder auf anderen Plattformen zum Einsatz kommen, führen Benutzer mittels natürlichsprachiger Dialoge intuitiv durch verschiedene Prozesse. Der digitale Assistent beantwortet Fragen – so als würden Sie mit einem Menschen kommunizieren.

CSR MAGAZIN: Welchen Mehrwert sollen die Piloten Nutzern künftig bieten?

Mit unserer Arbeit wollen wir einen sinnvollen Beitrag für Gesellschaft, Mensch und Umwelt leisten. Unternehmen sehen sich häufig mit der Herausforderung konfrontiert, dass sicherheitsrelevante Maßnahmen nicht eingehalten werden, weil sich Mitarbeiter davon in ihren Arbeitsabläufen gestört fühlen. Mit unserem Piloten möchten wir die KI-Nutzung so einfach wie möglich machen. Der digitale Assistent kann Produktions- oder Fremdmitarbeiter unterstützen, die nicht jeden Tag auf dem Gelände unterwegs sind. Der Nutzer sieht ein loses Kabel oder einen versperrten Notausgang: Über die Spracheingabe auf dem Handy meldet er dieses Risiko schnell und unkompliziert. Der Chatbot warnt andere Mitarbeiter automatisch über Gefahren am Standort. Darüber hinaus testen wir die automatische Bilderkennung, um unsichere Situationen festzustellen. Weitere Pilotprojekte drehen sich um die intelligente Bereitstellung relevanter Daten an Maschinen und Anlagen. Sie sollen dabei unterstützen, den Energieverbrauch von Unternehmen zu verbessern.

Lizenz

Digitales verantworten Copyright © 2020 Achim Halfmann. Alle Rechte vorbehalten.

Dieses Buch teilen