Künstliche Intelligenz: Wettlauf ohne Ethik

Die Künstliche Intelligenz (KI) boomt: Schon jetzt können Computersysteme schwarzen Hautkrebs schneller und besser diagnostizieren als Dermatologen. Am vollautonomen Auto tüftelt längst nicht nur Tesla, sondern werkeln auch VW, BMW und Audi. Und wer sein Vermögen vermehren will, kann damit einen „Anlageroboter“ betrauen.

Das enorme Potential der KI hat auch die Bundesregierung erkannt. Laut ihrem jüngst veröffentlichten Eckpunktepapier will sie die künftige Schlüsseltechnologie dabei nicht dem Silicon Valley überlassen. Stattdessen müsse KImade in Germanyzum neuen Qualitätsprädikat werden. Um Deutschland „auf ein weltweit führendes Niveau“ zu bringen, werde man Wirtschaft und Wissenschaft massiv fördern.

Aus wirtschaftspolitischer Sicht erscheint dieser Vorstoß durchaus nachvollziehbar. Laut Pricewaterhouse-Coopers soll KI – mittels Produktinnovationen auf der einen und Effizienzsteigerungen auf der anderen Seite – der deutschen Wirtschaft in den kommenden Jahren ein beachtliches Umsatzplus bescheren. Bis 2030 soll das Bruttoinlandsprodukt dank KI um mehr als elf Prozent ansteigen.

Allerdings werden Fördermittel allein nicht ausreichen, um die ambitionierten Regierungsziele zu erreichen – erst recht nicht im nationalen Alleingang. Denn KI meint und verlangt vor allem das Zusammenspiel von Rechenkraft und Big Data: Ein Computersystem nutzt dabei eine Abfolge von Rechenschritten – Algorithmen –, um Rohdaten auf bestimmte Muster hin zu untersuchen und aus diesen Gesetzmäßigkeiten abzuleiten. Diese ermöglichen dann eine Automatisierung „intelligenten“ Verhaltens. Um KI zu entwickeln, braucht es somit hauptsächlich zweierlei: Kapazitäten für deren Erforschung und Entwicklung sowie möglichst viele Daten. An dem einen wie dem anderen herrscht hierzulande jedoch großer Mangel.

Hinzu kommt ein weiteres Problem: Bei der Entwicklung von KI sollte es um weit mehr gehen als um Wettbewerbsfähigkeit, nämlich auch um die Frage, wie wir künftig leben wollen. Selbst KI-Forscher räumen ein, dass die Algorithmen für sie mitunter eine „Black Box“ darstellen – sie also gar nicht genau wissen, wie diese zu Schlussfolgerungen gelangen. Damit aber ist auch nicht absehbar, welche Folgen die KI hat, geschweige denn, ob diese kontrollier- und umkehrbar sind.

Weiterlesen auf www.blaetter.de

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre mehr darüber, wie deine Kommentardaten verarbeitet werden.