Robotik

Killerroboter könnten Massengräueltaten verursachen

Killerroboter könnten Massengräueltaten verursachen



We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Roboter werden in Zukunft als Soldaten eingesetzt. Tatsächlich werden einige Roboter sowie Drohnen bereits vom Militär eingesetzt. Intelligente und autonome Roboter, die von Menschen zum Zielen und Töten programmiert wurden, könnten in Zukunft Verbrechen begehen. Es sei denn, es gibt einen Vertrag über den verantwortungsvollen Umgang mit Robotik und künstlicher Intelligenz (KI).

Die Technologie, mit der tödliche Roboter gebaut werden können, bedeutet nicht, dass wir sie einsetzen müssen. Wie Spidermans Onkel einmal sagte: "Mit großer Kraft geht große Verantwortung einher."

Experten für maschinelles Lernen und Militärtechnologie sagen, es wäre technologisch möglich, Roboter zu bauen, die Entscheidungen darüber treffen, wen sie anvisieren und töten sollen, ohne dass ein menschlicher Controller beteiligt ist. Da Gesichtserkennungs- und Entscheidungsalgorithmen immer leistungsfähiger werden, würde es einfacher werden, solche Robotertypen zu entwickeln.

Die Risiken von Killerrobotern

Forscher in der KI und in der öffentlichen Ordnung versuchen zu behaupten, dass Killerroboter im wirklichen Leben eine schlechte Idee sind. Die Schaffung völlig autonomer Waffen würde neue technische und moralische Dilemmata mit sich bringen.

Aus diesem Grund haben Wissenschaftler und Aktivisten die Vereinten Nationen und die Regierungen der Welt dazu gedrängt, das Problem anzuerkennen und ein präventives Verbot in Betracht zu ziehen.

Kann KI als Waffe eingesetzt werden?

Die kurze Antwort lautet: Ja. Wie jede andere existierende Technologie kann künstliche Intelligenz zum Guten, aber auch zum Töten eingesetzt werden. Gesichtserkennung und Objekterkennung sind Technologien, die sich in den letzten Jahren verbessert haben. Wir könnten sagen, dass sie viel genauer geworden sind, aber weit davon entfernt, perfekt zu sein.

Gesichtserkennung und Objekterkennung sind Fähigkeiten, die im Rahmen eines Toolkits für tödliche autonome Waffen (LAWS) wahrscheinlich unverzichtbar werden. Es ist jedoch auch ziemlich einfach, diese Technologien zu täuschen, wenn man sie wirklich täuschen will.

Militärroboter: Gegenwart und Zukunft

Militärroboter sind ferngesteuerte autonome Roboter oder Drohnen, die für militärische Anwendungen entwickelt wurden. Militärroboter können für Transport, Suche und Rettung sowie für Angriffe eingesetzt werden, um Menschen zu töten und sogar Städte zu zerstören.

Einige dieser Systeme werden derzeit bereitgestellt, andere befinden sich in der Entwicklung. Einige Militärroboter werden unter strenger Geheimhaltung entwickelt, um zu verhindern, dass andere von ihrer Existenz erfahren.

Die Vereinigten Staaten fliegen bereits Militärdrohnen über Gebiete, in denen sich die USA im Krieg befinden oder militärische Operationen durchführen. Bisher entscheiden menschliche Controller, wann diese Drohnen feuern.

Obwohl tödliche autonome Waffen (LAWS) noch nicht ganz existieren - oder so denken wir -, gibt es tatsächlich die Technologie, die menschlichen Controller durch einen Algorithmus zu ersetzen, der die Entscheidung darüber trifft, wann und was geschossen werden soll. Einige KI-Forscher glauben, dass GESETZE in Form kleiner Drohnen in weniger als zwei Jahren als Waffen eingesetzt werden könnten.

Während die heutigen Drohnen ein Videofeedback an eine Militärbasis senden, wo ein menschlicher Soldat die Entscheidung trifft, ob die Drohne auf das Ziel schießen soll oder nicht, wird der Soldat mit einer vollständig autonomen Waffe diese Entscheidung nicht mehr treffen. Stattdessen würde ein Algorithmus die Entscheidung treffen.

Tödliche autonome Waffen (GESETZE): Sind Menschen gefährdet?

Die Ära der maschinengetriebenen Kriegsführung ist nicht zu weit in der Zukunft. Das Militär hat mit Robotern experimentiert, die Teil des Schlachtfeldes sein und als Killerwaffen eingesetzt werden können. Die Kriege der Zukunft können dann mehr High-Tech-Infusion und weniger menschlich sein. Welche Konsequenzen für die Menschheit würde dies bringen?

Das Risiko tödlicher autonomer Waffen (LAWS), auch als Killerroboter bekannt, ist real. Einige Forscher der Künstlichen Intelligenz (KI) haben viele Gründe, ihren Konsens zu unterstützen, dass die Welt die Entwicklung und den Einsatz tödlicher autonomer Waffen verbieten sollte.

Der Grund ist ziemlich einfach: Militärmächte könnten eine Armee von Killerrobotern recht billig in Massenproduktion herstellen. Die Menschheit könnte jedoch einen hohen Preis zahlen; Die Herstellung und Aktivierung von Killerrobotern würde die Wahrscheinlichkeit von Proliferation und Massentötung erhöhen.

Killerroboter: Ein Mensch ist immer für alle Aktionen eines Roboters verantwortlich

An dieser Stelle stellt sich die Frage, wer für die Aktionen eines Roboters verantwortlich sein soll. Und welche Roboethik sollte auf tödliche autonome Roboter angewendet werden? Während eines Krieges oder sogar während eines kleineren Konflikts können die Dinge außer Kontrolle geraten. Sollten Killerroboter die totale Kontrolle übernehmen?

Roboter, die in einem Kriegskonflikt als mechanische Waffen eingesetzt werden sollen, die in künstliche Intelligenz und maschinelles Lernen eingebettet sind, sollten einen Ein- / Ausschalter haben.

Heute stellen Isaac Asimovs drei Gesetze der Robotik für Robotiker mehr Probleme und Konflikte dar als sie lösen.

Robotiker, Philosophen und Ingenieure sehen eine anhaltende Debatte über Maschinenethik. Maschinenethik - oder Roboethik - ist ein praktischer Vorschlag, wie Roboter gleichzeitig konstruiert und ethische Sanktionen verhängt werden können.

Roboethics befasst sich mit dem Verhaltenskodex, den Roboterdesigner in die künstliche Intelligenz eines Roboters implementieren müssen. Wer oder was wird dafür verantwortlich gemacht, wenn oder wenn ein autonomes System versagt oder Menschen schadet?

Die drei Gesetze der Robotik: Sollten sie auf Killerroboter angewendet werden?

1942 führte der Science-Fiction-Autor Isaac Asimov in seiner Kurzgeschichte die drei Gesetze der Robotik ein - auch bekannt als Asimovs Gesetze Herumlaufen. Obwohl Asimovs drei Gesetze der Robotik Teil einer fiktiven Welt waren, könnten sie heute ein guter Ausgangspunkt für die Roboterprogrammierung sein.

Bevor und wenn Regierungen tödliche autonome Waffen einsetzen, sollten sie sicherstellen, dass sie verhindern können, dass Killerroboter, die in Kriegsgebieten eingesetzt werden sollen, selbst einen Krieg beginnen oder Massengräueltaten wie das Töten von Zivilisten verursachen.

Einige mögen denken, dass die folgenden Gesetze der Robotik gegen das verstoßen, was ein Soldat tun sollte. Vielleicht ist das doch der Hauptpunkt. Mit anderen Worten, vielleicht sollte ein Mensch die schmutzige Arbeit nicht einer Maschine geben, die noch nicht in der Lage ist, Situationen zu individualisieren und ein Urteil zu fällen.

  • Ein Roboter darf einen Menschen nicht verletzen oder durch Untätigkeit zulassen, dass ein Mensch Schaden nimmt

  • Ein Roboter muss die Anweisungen des Menschen befolgen, es sei denn, solche Anweisungen würden dem Ersten Gesetz widersprechen

  • Ein Roboter muss seine eigene Existenz schützen, solange dieser Schutz nicht mit dem ersten oder zweiten Gesetz in Konflikt steht

Stoppen Sie Killerroboter

Es gibt eine Kampagne gegen Stop Killer Robots, eine Koalition von Nichtregierungsorganisationen, die versuchen, tödliche autonome Waffen (LAWS) vorbeugend zu verbieten.

Der Generalsekretär der Vereinten Nationen (UN) hat die Staaten in seinem Bericht 2020 über den Schutz der Zivilbevölkerung in bewaffneten Konflikten aufgefordert, rasch Maßnahmen zu ergreifen, um Bedenken hinsichtlich tödlicher autonomer Waffensysteme auszuräumen. Dies ist der erste UN-Bericht zum Schutz der Zivilbevölkerung seit 2013, in dem allgemeine Bedenken hinsichtlich Killerrobotern hervorgehoben werden.

Im Bericht 2020 stellt Generalsekretär António Guterres fest, dass „alle Seiten sich einig zu sein scheinen, dass zumindest die Beibehaltung der menschlichen Kontrolle oder des Urteils über die Anwendung von Gewalt erforderlich ist“. Er stellt außerdem fest, dass "eine wachsende Zahl von Mitgliedstaaten ein Verbot von GESETZEN gefordert hat". Seit November 2018 hat der UN-Generalsekretär wiederholt seinen Wunsch nach einem neuen internationalen Vertrag zum Verbot von Killerrobotern zum Ausdruck gebracht.

Die Kampagne zur Bekämpfung von Killerrobotern empfiehlt den Vereinten Nationen, die Staaten zu drängen, sich auf "Beschränkungen und Verpflichtungen zu einigen, die für die Autonomie von Waffen gelten sollten". Die Staaten sollten jetzt Verhandlungen über einen neuen internationalen Vertrag aufnehmen, um vollständig autonome Waffen zu verbieten und gleichzeitig eine sinnvolle menschliche Kontrolle über die Anwendung von Gewalt zu behalten.

Wie man einen Roboter tötet

Höchstwahrscheinlich versenden tödliche autonome Roboterhersteller ihre Killerroboter mit einer Bedienungsanleitung, in der die Möglichkeit besteht, einen Sicherheitscode aus der Ferne einzufügen, um einen Killerroboter zu deaktivieren.

Wenn dies keine Option ist, besteht eine zuverlässige Möglichkeit, einen Roboter zu töten, darin, einen elektromagnetischen Impuls (EMP) zu verwenden, um einen hohen Strom zu induzieren, der die Schaltkreise des Roboters durchbrennt. Dies setzt natürlich voraus, dass der Killerroboter nicht durch einen Faradayschen Käfig geschützt ist.


Schau das Video: Neuer Roboter macht Soldaten überflüssig Corridor Digital (August 2022).