Ist Ethik in der künstlichen Intelligenz überhaupt möglich?

von Wolfgang Starke am 12.März 2019 in Künstliche Intelligenz, News

Die New York Times beschäftigt sich mit der Frage, ob ethische Standards bei der Entwicklung künstlicher Intelligenz (KI) dauerhaft eingehalten werden können. Unternehmen wie Google oder Microsoft, die an dem Thema arbeiten, haben eigene ethische Prinzipien und setzen oft auch spezielle Beauftragte oder Gremien zur Überprüfung der Einhaltung ein. Aber reicht das oder braucht man staatliche Eingriffsmöglichkeiten? Schließlich kann sich Idealismus auch finanziellem Druck beugen.

Das New Yorker Startup Clarifai etwa arbeitet mit dem Pentagon zusammen und entwickelt KI für autonome Waffensysteme und Gesichtserkennung. Die Mitarbeiter der Firma wandten sich mit einem Brief an die Geschäftsleitung und äußerten ethische Bedenken zu dem Projekt. Sie waren in Sorge, dass ihre Arbeit der automatisierten Kriegsführung oder Massenüberwachung dient. Firmengründer Matt Zeiler antwortete in einem Blog, dass es Clarifais Mission sei, den Fortschritt der Menschheit durch ständige Verbesserung von KI zu beschleunigen. Letztlich würde das Projekt das Leben von Zivilisten und Soldaten retten, weil sie genauer seien als Waffen, die von Menschen kontrolliert werden. Mitarbeitern bestätigte er, dass das Unternehmen eines Tages zu autonomen Waffen beitragen würde.

Auch Microsofts Mitarbeiter hatten bezüglich der  Zusammenarbeit mit dem US-Militär auf Grund der Mixed-Realitiy-Brille Hololens 2 bereits ethische Bedenken gegenüber der Unternehmensleitung geäußert.

Foto: PR

Die Technologie von Clarifai ist darauf ausgerichtet, Objekte in Fotos und Videos sofort zu erkennen. Die „dual-use technology“ wird eingesetzt, um etwa eine Designer-Handtasche auf einer Webseite zu erkennen, aber eben zum Beispiel auch Ziele für Drohnen. Natürlich ist die Technik noch fehleranfällig. So haben etwa Forscher gezeigt, dass autonom fahrende Fahrzeuge dazu gebracht werden können Dinge zu sehen, die tatsächlich nicht vorhanden sind.

Google hat sich nach Protesten der Mitarbeiter aus Pentagon-Projekt zurückgezogen

Google hat übrigens am gleichen Projekt des Pentagons wie Clarifai gearbeitet, sich aber nach Protesten der Mitarbeiter zurückgezogen. Das zeigt, wie stark der Einfluss der Mitarbeiter ist. Allerdings haben 20 weitere Firmen mitgearbeitet, ohne offenbar ethische Bedenken zu hegen. Google hat eine Reihe von KI-Prinzipien für künftige Projekte festgelegt. Die Auslegung dieser selbstgegebenen Regeln obliegt natürlich dem Unternehmen selbst bzw. einiger Mitarbeiter, die zugleich auch die finanziellen Interessen vertreten müssen.

Nachdem Mitarbeiter von Amazon gegen den Verkauf von Gesichtserkennungsdiensten an Polizeibehörden protestiert hatten und verschiedene Studien die Fehler dieser Dienste beschrieben, forderten Amazon und Microsoft eine staatliche Regulierung in diesem Bereich. Viele Politikexperten räumen dem schlechte Chancen ein, weil insbesondere das Pentagon motiviert ist, bei der Entwicklung ähnlicher Technologien mit China, Russland und anderen internationalen Konkurrenten Schritt zu halten. Aus diesem Grund fordern einige Experten internationale Abkommen, die den Einsatz autonomer Waffen verbieten würden.

Am Ende ist klar, dass der Aufbau ethischer KI enorm komplex ist. Das Hauptproblem ist und bleibt, dass ethische Fragen immer nur relativ betrachtet werden können und im Auge des Betrachters liegen.


Artikel teilen

Sichern Sie sich jetzt Ihren Wissensvorsprung in Mobile Marketing und Mobile Business und abonnieren Sie die Meldungen von mobilbranche.de ganz bequem per E-Mail. Unser Newsletter erscheint täglich um 13 Uhr und ist kostenlos.

Hiermit akzeptiere ich die Datenschutzbestimmungen.

Facebook Kommentare:

Kommentare