Künstliche Intelligenz gefährlicher als Atomwaffen? Die Warnung von Tesla-Gründer Musk kommt in Berlin nicht gut an. Dennoch hält man Regeln für die Technologie für unabdingbar.
Man kann von Künstlicher Intelligenz (KI) halten, was man will. Aber die Warnungen, die SpaceX- und Tesla-Gründer Elon Musk bei der Digital-Konferenz South by Southwest (SXSW) im texanischen Austin verbreitet hat, sind manchem dann doch etwas zu dick aufgetragen.
Ein solcher „Alarmismus“ sei nicht angesagt, sagte der Digitalexperte der Grünen-Bundestagsfraktion, Dieter Janecek, dem Handelsblatt. Und auch der CDU-Digitalpolitiker Thomas Jarzombek hält Musks hält so viel Trommelfeuer gegen die Zukunftstechnologie für unangebracht.
Musk hatte gesagt: „Künstliche Intelligenz ist sehr viel gefährlicher als Atomwaffen.“ Er selbst sei zwar kein Fan von Regulation und Aufsicht. Die „Superintelligenz“ sei aber eine „sehr ernste Bedrohung für die Öffentlichkeit“. Es sei daher extrem wichtig, dass die Technologie sicher entwickelt werde.
Nicht wenige KI-Forscher teilten die Auffassung von Musk, hielt Jarzombek dagegen. Zumal die Technologie heute zwar sehr schnell sehr spezifische Aufgaben lernen und umsetzen könne, das allgemeine Denken aber eben „noch gar nicht“. Und auch Janecek gab zu bedenken: „Wir werden es nicht morgen schon mit irgendeiner Superintelligenz zu tun haben.“
Gleichwohl würden Prototypen selbstfahrender Autos bereits im Straßenverkehr eingesetzt, während wichtige technische, strafrechtliche und Haftungsfragen bisher nicht zufriedenstellend geklärt seien. „Hier haben wir eindeutigen Nachholbedarf“, betonte der Grünen-Politiker. „Denn welche Chancen oder welche Bedrohungen mit technologischem Fortschritt einhergehen, hängt immer davon ab, welchen Regeln der Einsatz der Technologie unterliegt und inwiefern Transparenz und demokratische Kontrolle hergestellt sind.“
Um den vollständigen Artikel zu lesen, klicken Sie bitte hier.