Die Nachricht ging um die Welt: Ein Google-Entwickler glaubt, seine KI sei eine Persönlichkeit mit Bewusstsein. Damit tritt ein, wovor zahlreiche Forscher und Forscherinnen seit geraumer Zeit warnen. Wir haben ein Problem mit KI – doch das hat wenig mit Science-Fiction zu tun.
Eigentlich hatte Blake Lemoine eine klare, einfache Aufgabe. Künstliche Intelligenzen (KI), das weiß man inzwischen gut, haben ein Problem: Wenn man sie einfach mit all dem, was Menschen so ins Internet schreiben, füttert, dann fangen sie an, auch die hässlichen Dinge zu wiederholen. Dann beleidigen Sprachmodelle Minderheiten oder produzieren rassistische oder sexistische Aussagen. Lemoine sollte deshalb für seinen Arbeitgeber Google testen, ob sich dessen neue Sprach-KI Lamda ethisch korrekt benimmt. Oder ob man sie – mit den richtigen Anreizen – dazu bringen kann, Hassrede zu verwenden. So weit, so einfach.
An dieser Stelle finden Sie einen externen Inhalt von Outbrain UK Ltd, der den Artikel ergänzt. Sie können ihn sich mit einem Klick anzeigen lassen.
Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit können personenbezogene Daten an Drittplattformen übermittelt werden. Mehr dazu in unseren Datenschutzhinweisen.