Bild: dpa
Auch Google ist mit dabei

Es ist eine schaurige Vorstellung: Die USA arbeiten nun offiziell an Drohnen, die selbstständig Ziele erfassen, verfolgen und gegebenenfalls sogar irgendwann töten könnten. (New Scientist)

Die Ausschreibung für ein entsprechendes Forschungsprojekt unter Leitung des US-Verteidigungsministeriums ist bereits im Januar abgeschlossen worden. Gesucht hatte das Ministerium ein Unternehmen, das zusammen mit der US-Regierung die Maschinenintelligenz bei der Erkennung von Zielen verbessert und dauerhafte Lernprozesse für Drohnen und ihre Software entwickelt: 

"[Ziel ist] die Entwicklung eines Systems, welches in unbemannte Flugobjekte der Klasse 1 oder 2 integriert werden kann, um automatisch Ziele oder Personen auf dem Boden zu erkennen, klassifizieren, identifizieren und anzuvisieren / anzugreifen*. Das System sollte Lernalgorithmen [...] den Einsatz in verschiedenen Bedingungen durch schnelle Anpassung ermöglichen."

*(Hinweis: Im Original heißt es hier "target", was auch "anvisieren" bedeuten kann. Im Militärjargon wird es allerdings als freundlicher klingende Alternative für "angreifen" verwendet.) 

Einsatz finden soll die neue Technik zunächst in kleinen Überwachungsdrohnen, nicht den großen Kampfdrohnen. Neben dem militärischen Bereich wird auch die Nutzung auf US-Territorium angestrebt, zur Überwachung von Terrorverdächtigen oder Kriminellen zum Beispiel.

Warum ist das wichtig?

Der US-Drohnenkrieg wird weltweit kritisiert. Luftschläge gegen mutmaßliche Terroristen verletzen internationale Verträge und treffen bisweilen auch die Falschen. Die USA etwa töteten nach eigenen Angaben unter Präsident Barack Obama mindestens unschuldige 116 Zivilisten bei Drohnenangriffen in Pakistan, Jemen, Libyen und Somalia. (bento

Seit Obamas Nachfolger Donald Trump im Amt ist, stiegen die Zahlen der zivilen Opfer durch Luft- und Drohnenangriffe in Syrien. (bento)

Drohnen, Terror, Waffengewalt – Die dunkle Seite der Obama-Zeit in Bildern:

1/12

Bisher setzten US-Militärs ausschließlich Drohnen zu Kampfzwecken ein, die von Menschen gesteuert werden. Die Piloten sitzen dann oft mehrere tausend Kilometer entfernt in einer Militärbasis an Computerbildschirmen – zum Beispiel in der deutschen US-Basis in Ramstein. 

Aktuell eingesetzte Kampfdrohnen liefern meist nur einen Videofeed, der dann in der Basis von Computerprogrammen, etwa zur Gesichtserkennung, analysiert wird. Ob eine Rakete abgefeuert oder eine Bombe geworfen wird, entscheidet aber bisher ein Mensch. Das ist schlecht, weil Menschen Fehler machen – aber auch gut, weil Menschen Werte und ein Gewissen haben. 

Die neuen, selbstlernenden Drohnen würden die Tötungs-Entscheidung möglicherweise irgendwann selbst übernehmen können – und schüren damit Ängste, die in der Diskussion um künstliche Intelligenz schon Thema sind:

  • Wie würden Maschinen entscheiden, wenn Zivilisten neben einem identifizierten Terroristen stehen?
  • Wie, wenn ein Mensch im Visier einem Gesuchten nur sehr ähnlich sieht?
  • Und was passiert, wenn die Technik der Drohnen fehleranfällig ist oder gehackt wird?

Tesla-Gründer Elon Musk forderte aus Angst vor Tötungsrobotern erst im vergangenen Jahr gemeinsam mit 115 anderen KI- und Tech-Experten vor den Vereinten Nationen ein weltweites Verbot der Technologie. (Guardian)

In einem offenen Brief schrieben die Experten: 

"Einmal entwickelt werden selbstständige Waffen die Kriege der Menschheit auf ein größeres und schlimmeres Level heben als je zuvor. Es werden Waffen des Terrors sein, Waffen, die von Diktatoren und Terroristen gegen Unschuldige eingesetzt werden, und Waffen, die von Hackern zu unerwünschten Dingen gezwungen werden können. Wir haben nicht lange, um zu handeln.
Sobald Pandoras Büchse einmal geöffnet ist, wird sie sehr schwer wieder zu schließen sein."
Ein Schreckensszenario, frei nach James Cameron.

Neben der sich aufdrängenden Angst vor unkontrollierbaren (oder von "den Falschen" eingesetzten) Drohnen gibt es ein ähnliches Problem gerade bei selbstfahrenden Autos. Die Entwickler und Programmierer müssen der Software ebenso Ethik und Moral einpflanzen, damit sie in brenzligen Situationen entscheiden kann. 

Und diese Entscheidungen haben lebensentscheidende Auswirkungen auf Verkehrsteilnehmer. Das zeigt das folgende Beispiel: Ein selbstfahrendes Auto merkt, dass es gleich in einen Unfall verwickelt wird und hat drei Möglichkeiten.

  1. In ein entgegenkommendes Auto hineinfahren und dadurch eine dreiköpfige Familie töten. Der eigene Passagier würde aber überleben.
  2. Nach links ausweichen, aber dabei in eine Gruppe Kinder fahren. 
  3. Nach rechts ausweichen, aber gegen eine Wand fahren und dabei den eigenen Passagier töten. 

Wie soll es reagieren? Hat der eigene Passagier Vorrang? Die Anzahl der wahrscheinlich getöteten Menschen? Das Alter der Opfer?

Das entscheidet im Fall der Autos der Bordcomputer und indirekt ihr Programmierer, der dem Auto beibringt, was "richtig" und "falsch" sein soll.

Auch bei selbstlernenden Kampfdrohnen wird vielleicht bald die Maschine allein entscheiden. Allerdings nicht über die Rettung von Leben, sondern über den Tod. 

Update, 5. April: 

Mehr als 3000 Google-Mitarbeiter haben nach Bekanntwerden, dass ihr Arbeitgeber bei dem Projekt mit dem US-Verteidigungsministerium kooperiert, einen Brief gegen die Zusammenarbeit unterzeichnet. „Technologien zu entwickeln, um die US-Regierung bei der militärischen Überwachung zu unterstützen, mit potenziell tödlichem Ausgang, ist inakzeptabel“, heißt es darin. Der Brief ist an Firmenchef Sundar Pichai gerichtet und fordert unter anderem, Richtlinien gegen zukünftige Militärforschung zu entwickeln. (t3n)


Grün

Kälbchen Betsy brach sich die Beine – doch dank viel Liebe sieht sie heute so aus
Hach!

Als Shawna Riche aus Iwoa vom benachbarten Hofbesitzer erfährt, dass ein Kälbchen mit schwerwiegenden Problemen zur Welt gekommen ist, zögert sie nicht lang: Sie zieht die kleine Kuh mit der Flasche auf – und nennt sie Betsy.

Das Kuhbaby lebt seitdem mit mehreren Hunden, einer Katze und einer jungen Ziege auf Shawnas Hof. Ihre Abenteuer zeigt Shawna auf einem eigens eingerichteten Instagram-Account. Im Video kannst du dir Betsys Geschichte ansehen.