# taz.de -- Autonome Waffen (DIR) Israel nutzt KI-System Lavender in Gaza: 20 Sekunden für Leben oder Tod Die israelische Armee setzt für die Suche nach Hamas-Kämpfern auf eine KI. Sie agiert fast autonom, nimmt zivile Opfer in Kauf und verdächtigt Zehntausende. (DIR) Drohnen mit todbringender Fracht: Militärische Roboter Bewaffnete Drohnen sollen künftig autonom agierend in den Krieg ziehen. Forscher und Politiker befürchten eine neue Rüstungsspirale. (DIR) Waffen mit künstlicher Intelligenz: 26 Staaten für Killerroboter-Verbot UNO-Staaten beraten, ob die Entwicklung autonomer tödlicher Waffen verhindert werden soll. Deutschland hält Unverbindliches für ausreichend. (DIR) Petition der Woche – autonome Waffen: Freiwillig gegen Killerroboter Tausende Wissenschaftler sprechen sich gegen autonome Waffensysteme aus. Sie warnen vor der Selbstvernichtung der Menschheit. (DIR) UN-Gespräche über Killerroboter: Militärmächte verhindern ein Verbot Die UN hatten diese Woche Gespräche zu autonomen Waffensystemen organisiert. Ein Verbot ist aber nicht in Sicht, da sich Länder wie die USA und Russland sperren. (DIR) Künstliche Intelligenz und Moral: Guter Roboter, schlechter Roboter Jobverlust durch Automatisierung? Roboter, die über Recht und Unrecht entscheiden? Das sind keine Debatten der Zukunft. Wir sind mittendrin. (DIR) Rüstungsforscher über Kampfdrohnen: „Sind dann Programmierer schuld?“ Künftig könnten Kampfdrohnen auch ohne menschliche Kontrolle agieren, sagt der Forscher Hilmar Linnenkamp. Aber wer ist dann für sie verantwortlich? (DIR) Diskussion um bewaffnete Drohnen: Von der Leyens große Show Die Verteidigungsministerin sagt, sie wolle Kampfdrohnen nur bei breiter Akzeptanz kaufen. Doch die Entscheidung scheint längst gefallen. (DIR) Autonome Waffen in Schwellenländern: China testet das „scharfe Schwert“ Die USA und die EU entwickeln Waffen, die ohne menschliche Kontrolle auskommen könnten. Nun wollen auch Indien und China solche Systeme. (DIR) Waffen ohne menschliche Kontrolle: Der Aufstieg der Maschinen Wer ist Freund? Wer wird getötet? Das könnten in Zukunft Roboter statt Soldaten entscheiden. Nur: Wer ist verantwortlich, wenn sie falsche Ziele treffen?