VORTEILE & RISIKEN DER KÜNSTLICHEN INTELLIGENZ

WAS IST KI?

Von SIRI bis hin zu selbstfahrenden Autos: Künstliche Intelligenz (KI) entwickelt sich rasant weiter. Während in Science-Fiction-Filmen KI oft als Roboter mit menschenähnlichen Eigenschaften dargestellt wird, kann KI alles von Googles Suchalgorithmen über IBMs Watson bis hin zu autonomen Waffen umfassen.

Künstliche Intelligenz wird heute richtigerweise als enge KI (oder schwache KI) bezeichnet, da sie auf eine enge Aufgabe ausgelegt ist (z. B. nur Gesichtserkennung oder nur Internetsuche oder nur Autofahren). Das langfristige Ziel vieler Forscher ist es jedoch, allgemeine KI (AGI oder starke KI) zu schaffen. Während eine enge KI den Menschen bei seiner spezifischen Aufgabe, wie z. B. Schach spielen oder Gleichungen lösen, übertreffen kann, würde eine AGI den Menschen bei fast jeder kognitiven Aufgabe übertreffen.

WARUM KI-SICHERHEITSFORSCHUNG?

Auf kurze Sicht motiviert das Ziel, die Auswirkungen von KI auf die Gesellschaft nützlich zu halten, die Forschung in vielen Bereichen, von Wirtschaft und Recht bis hin zu technischen Themen wie Verifikation, Validität, Sicherheit und Kontrolle. Während es kaum mehr als ein kleines Ärgernis sein mag, wenn Ihr Laptop abstürzt oder gehackt wird, wird es umso wichtiger, dass ein KI-System das tut, was Sie wollen, wenn es Ihr Auto, Ihr Flugzeug, Ihren Herzschrittmacher, Ihr automatisches Handelssystem oder Ihr Stromnetz steuert. Eine weitere kurzfristige Herausforderung besteht darin, ein verheerendes Wettrüsten mit tödlichen autonomen Waffen zu verhindern.

Langfristig ist eine wichtige Frage, was passiert, wenn das Streben nach starker KI erfolgreich ist und ein KI-System in allen kognitiven Aufgaben besser wird als der Mensch. Wie I.J. Good bereits 1965 feststellte, ist die Entwicklung intelligenterer KI-Systeme selbst eine kognitive Aufgabe. Ein solches System könnte sich rekursiv selbst verbessern und eine Intelligenzexplosion auslösen, die den menschlichen Intellekt weit hinter sich lässt. Durch die Erfindung revolutionärer neuer Technologien könnte eine solche Superintelligenz uns helfen, Krieg, Krankheit und Armut auszurotten, und so könnte die Erschaffung einer starken KI das größte Ereignis in der Geschichte der Menschheit sein. Einige Experten haben jedoch die Sorge geäußert, dass es auch das letzte sein könnte, wenn wir nicht lernen, die Ziele der KI mit den unseren in Einklang zu bringen, bevor sie superintelligent wird.

Es gibt einige, die bezweifeln, dass es jemals eine starke KI geben wird, und andere, die darauf bestehen, dass die Erschaffung einer superintelligenten KI garantiert von Nutzen sein wird. Beim FLI erkennen wir beide Möglichkeiten an, erkennen aber auch das Potenzial, dass ein System mit künstlicher Intelligenz absichtlich oder unabsichtlich großen Schaden anrichten kann. Wir glauben, dass die heutige Forschung uns helfen wird, uns besser auf solche potenziell negativen Folgen in der Zukunft vorzubereiten und sie zu verhindern, um so die Vorteile der KI zu genießen und gleichzeitig Fallstricke zu vermeiden.

WARUM DAS AKTUELLE INTERESSE AN KI-SICHERHEIT

Stephen Hawking, Elon Musk, Steve Wozniak, Bill Gates und viele andere große Namen aus Wissenschaft und Technik haben sich in letzter Zeit in den Medien und in offenen Briefen besorgt über die Risiken der KI geäußert, ebenso wie viele führende KI-Forscher. Warum ist das Thema plötzlich in den Schlagzeilen?

Die Vorstellung, dass das Streben nach starker KI letztendlich erfolgreich sein würde, galt lange Zeit als Science-Fiction, die Jahrhunderte oder mehr entfernt ist. Doch dank der jüngsten Durchbrüche sind viele KI-Meilensteine, die Experten noch vor fünf Jahren für Jahrzehnte entfernt hielten, inzwischen erreicht, so dass viele Experten die Möglichkeit einer Superintelligenz zu unseren Lebzeiten ernst nehmen. Während einige Experten immer noch davon ausgehen, dass KI auf menschlichem Niveau noch Jahrhunderte entfernt ist, schätzten die meisten KI-Forscher auf der Konferenz 2015 in Puerto Rico, dass dies vor 2060 der Fall sein wird. Da es Jahrzehnte dauern kann, bis die erforderliche Sicherheitsforschung abgeschlossen ist, ist es klug, jetzt damit zu beginnen.

Da KI das Potenzial hat, intelligenter als jeder Mensch zu werden, haben wir keine todsichere Möglichkeit, vorherzusagen, wie sie sich verhalten wird. Wir können uns nicht auf vergangene technologische Entwicklungen stützen, da wir noch nie etwas geschaffen haben, das die Fähigkeit hat, uns – ob bewusst oder unbewusst – zu überlisten. Das beste Beispiel dafür, was uns bevorstehen könnte, ist vielleicht unsere eigene Evolution. Wir Menschen beherrschen heute den Planeten, nicht weil wir die Stärksten, Schnellsten oder Größten sind, sondern weil wir die Klügsten sind. Wenn wir nicht mehr die Klügsten sind, sind wir dann sicher, dass wir die Kontrolle behalten?

Das FLI vertritt die Position, dass unsere Zivilisation so lange florieren wird, wie wir den Wettlauf zwischen der wachsenden Macht der Technologie und der Weisheit, mit der wir sie verwalten, gewinnen. Im Fall der KI-Technologie ist die Position des FLI, dass der beste Weg, dieses Rennen zu gewinnen, nicht darin besteht, Ersteres zu verhindern, sondern Letzteres zu beschleunigen, indem wir die KI-Sicherheitsforschung unterstützen.

Du magst vielleicht auch

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert