Haben künstliche Intelligenzen ein Recht auf Privatsphäre?

Wenn Maschinen Geheimnisse haben

04.11.2016

Kein Mensch hat bisher herausfinden können, nach welchen Regeln zwei künstliche Intelligenzen ihre Kommunikation in einem Test verschlüsselten. Der Test hat die Fortschritte in der KI-Forschung deutlich gemacht, doch welche Probleme ergeben sich daraus?

Künstliche Intelligenz wird heutzutage nicht mehr nur mit Science-Fiction- und Actionfilmen verbunden. Beispielsweise ist der Sprachassistent „Siri“ im iPhone ein solches selbstlernendes Programm und erleichtert vielen Nutzern das Leben.

Nun haben Forscher von Google eine kleine Sensation produziert: Zwei künstliche Intelligenzen, „Alice“ und „Bob“, haben vor einer dritten neugierigen KI namens „Eve“ eine Nachricht so verschlüsselt, dass diese sie nicht mehr entschlüsseln konnte. Das Problem dabei: auch die Forscher können nicht nachvollziehen, wie die Verschlüsselung funktioniert.

Ist die Maschine schlauer als der Mensch?

Künstliche Intelligenzen sind im Grunde selbstlernende Systeme. Das heißt, ein System wird mit Daten gefüttert und probiert eigene Lösungsstrategien für Probleme aus. Anschließend wendet sie diese auf zukünftige, noch unbekannte Herausforderungen an.

Im konkreten Test von Googles „Deep Mind“-Unternehmen haben nun nach 15.000 Versuchen die beiden geheimniskrämerischen KIs eine Verschlüsselung geschaffen, die nur noch sie selbst verstehen. Doch ob vielleicht eine vierte künstliche Intelligenz die Verschlüsselung verstehen oder mit mehr Tests doch noch der Code geknackt werden könnte, wurde bisher noch nicht probiert.

Ich denke, wir werden die intelligenten Systeme der Zukunft in Leitplanken halten müssen. – Jörn Müller-Quade, Professor für IT-Sicherheit am Karlsruher Institut für Technologie

In Zukunft dürfte der rasante Fortschritt, der im Bereich künstlicher Intelligenz erzielt wird, nicht folgenlos bleiben. KIs bilden ihre Systeme eigenständig in einem Lernprozess aus. Dadurch wird es zunehmend schwieriger herauszufinden, wie sie eigentlich funktionieren. Gibt man einer künstlichen Intelligenz keine Schranken, kann diese abhängig von den Daten, mit denen man sie füttert, zum Problem werden.

Künstliche Intelligenz kann verrückt werden

So hatte sich Microsoft im März dieses Jahres mit dem Chatbot „Tay“ blamiert. Der von einer KI verwaltete Twitteraccount sollte ursprünglich einem hippen amerikanischen Teenager nachempfunden werden und mit anderen Nutzern locker plaudern. Nachdem Trolle den Bot gezielt mit Hassbotschaften gefüttert hatten, verwandelte sich Tay innerhalb eines Tages zu einem rassistischen, frauenfeindlichen Monster, das alle Regeln des Anstands fahren ließ.

Wenn nun Maschinen bereits eigenständige Verschlüsselungen produzieren können, die ein Mensch nicht nachvollziehen kann, was für Konsequenzen folgen daraus für die Anwendung künstlicher Intelligenzen? Darüber und was Googles Test im Großen und Ganzen für die Zukunft der Digitalisierung bedeutet, hat unsere detektor.fm-Moderatorin Maja Fiedler mit dem Professor für IT-Sicherheit Jörn Müller-Quade gesprochen.

prof-joern-muller-quadeWenn Menschen von Maschinen unterstützt werden, um Entscheidungen zu treffen, dann ist das mit großer Vorsicht zu genießen.Jörn Müller-Quadeleitet das Institut für Kryptographie und Sicherheit am Karlsruher Institut für Technologie und ist Professor für IT-Sicherheit.