Robotik

Killer Robots kunne forårsage masse grusomheder

Killer Robots kunne forårsage masse grusomheder



We are searching data for your request:

Forums and discussions:
Manuals and reference books:
Data from registers:
Wait the end of the search in all databases.
Upon completion, a link will appear to access the found materials.

Robotter vil blive brugt som soldater i fremtiden. Faktisk er nogle robotter såvel som droner allerede indsat af militæret. Intelligente og autonome robotter, der er programmeret af mennesker til at målrette og dræbe, kan begå forbrydelser i fremtiden. Medmindre der er en traktat om, at robotteknologi og kunstig intelligens (AI) skal anvendes ansvarligt.

At have den teknologi, der kan bygge robotter, der dræber, betyder ikke, at vi er nødt til at bruge den. Som Spidermans onkel engang sagde, "med stor magt kommer stort ansvar."

Eksperter inden for maskinindlæring og militærteknologi siger, at det ville være teknologisk muligt at bygge robotter, der træffer beslutninger om, hvem man skal målrette mod og dræbe uden at have en menneskelig controller involveret. Fordi ansigtsgenkendelses- og beslutningstagningsalgoritmer i stigende grad bliver mere magtfulde, bliver det lettere at opnå oprettelsen af ​​sådanne slags robotter.

Risikoen ved dræberrobotter

Forskere inden for AI og offentlig politik forsøger at gøre sagen gældende, at dræberrobotter er en dårlig idé i det virkelige liv. Oprettelsen af ​​fuldt autonome våben ville medføre nye tekniske og moralske dilemmaer.

Forskere og aktivister har af denne grund skubbet FN og verdensregeringerne til at anerkende problemet og overveje et forebyggende forbud.

Kan AI bruges som et våben?

Det korte svar er ja. Ligesom enhver anden eksisterende teknologi kan kunstig intelligens bruges til gode, men også til at dræbe. Ansigtsgenkendelse og genkendelse af genstande er teknologier, der er forbedret i løbet af de sidste par år. Vi kan sige, at de er blevet langt mere nøjagtige, men alligevel er de langt fra perfekte.

Ansigtsgenkendelse og genkendelse af objekter er færdigheder, der sandsynligvis bliver vigtige som en del af et værktøjssæt til dødbringende autonome våben (LAWS). Det er dog også ret nemt at narre disse teknologier, hvis man virkelig vil narre dem.

Militære robotter: Nuværende og fremtid

Militære robotter er fjernstyrede autonome robotter eller droner, der er designet til militære applikationer. Militære robotter kan bruges til transport, søgning og redning og også til angreb med implikationen at dræbe mennesker og endda ødelægge byer.

Nogle af disse systemer implementeres i øjeblikket, og andre er under udvikling. Nogle militære robotter er udviklet under streng hemmeligholdelse for at forhindre andre i at lære om deres eksistens.

USA flyver allerede militære droner over områder, hvor USA er i krig eller er involveret i militære operationer. Indtil videre bestemmer menneskelige controllere, hvornår disse droner skal skyde.

Selvom dødelige autonome våben (LOV) ikke eksisterer endnu, - eller det er, hvad vi synes - teknologien til at erstatte de menneskelige controllere med en algoritme, der faktisk beslutter, hvornår og hvad man skal skyde. Nogle AI-forskere mener, at LOV, i form af små droner, kunne bruges som våben på mindre end to år.

Mens nutidens droner sender en videofeedback til en militærbase, hvor en menneskelig soldat træffer beslutningen om, hvorvidt dronen skal skyde på målet eller ej, med et fuldt autonomt våben, tager soldaten ikke beslutningen længere. En algoritme ville træffe beslutningen i stedet.

Dødelige autonome våben (LOV): Er mennesker i fare?

Epoken med maskindrevet krigsførelse er ikke alt for langt ind i fremtiden. Militæret har eksperimenteret med robotter, der kan være en del af slagmarken og bruges som dræbervåben. Fremtidens krige kan så være mere high-tech infunderet og mindre menneskelige. Hvilke konsekvenser for menneskeheden ville dette medføre?

Risikoen ved dødelige autonome våben (LAWS), også kendt som dræberrobotter, er reel. Nogle kunstige intelligens (AI) forskere har masser af grunde til at støtte deres enighed om, at verden skal forbyde udvikling og anvendelse af dødbringende autonome våben.

Årsagen er ret enkel, militære magter kunne masseproducere en hær af dræberrobotter ganske billigt. Imidlertid kunne menneskeheden betale en høj pris; fremstilling og aktivering af dræberrobotter ville øge sandsynligheden for spredning og massedrab.

Dræberobotter: Et menneske er altid ansvarlig for enhver handling, en robot tager

På dette tidspunkt opstår spørgsmålet, hvem skal være ansvarlig for en robots handlinger? Og hvad roboetik skal anvendes på dødbringende autonome robotter? Under en krig eller endda under en mindre konflikt kan ting komme ud af hånden. Skal dræberrobotter overtage total kontrol?

Robotter, der er beregnet til at blive brugt i en krigskonflikt som mekaniske våben indlejret med kunstig intelligens og maskinindlæring, skal have en af ​​/ på-kontakt af en eller anden slags.

I dag repræsenterer Isaac Asimovs tre love om robotteknologi flere problemer og konflikter for robotister, end de løser.

Robotikere, filosoffer og ingeniører ser en løbende debat om maskineetik. Maskinetik - eller roboetik - er et praktisk forslag til, hvordan man samtidig konstruerer og tilvejebringer etiske sanktioner for robotter.

Roboethics beskæftiger sig med den adfærdskodeks, som robotdesignere skal implementere i en robots kunstige intelligens. Hvem eller hvad skal holdes ansvarlig, når eller hvis et autonomt system fungerer forkert eller skader mennesker?

De tre love om robotik: Bør de anvendes på dræberrobotter?

I 1942 introducerede science fiction-forfatter Isaac Asimov de tre love om robotik - også kendt som Asimovs love - i sin novelle Løbe rundt. Selvom Asimovs tre love om robotik var en del af en fiktiv verden, kunne de være et godt udgangspunkt for robotprogrammering i dag.

Før og hvis regeringer indsætter dødbringende autonome våben, skal de sørge for, at de kan forhindre morderrobotter, der er designet til at blive indsat i krigszoner, i at starte en krig alene eller forårsage massevæsen som at dræbe civile.

Nogle tror måske, at de følgende robotteregler strider mod, hvad en soldat skal gøre. Måske er det trods alt hovedpunktet. Med andre ord, måske burde et menneske ikke give det beskidte arbejde til en maskine, som endnu ikke er i stand til at individualisere situationer og træffe en dom.

  • En robot må muligvis ikke skade et menneske eller lade passivitet lade et menneske komme til skade

  • En robot skal adlyde ordrer fra mennesker, medmindre sådanne ordrer er i strid med den første lov

  • En robot skal beskytte sin egen eksistens, så længe en sådan beskyttelse ikke er i konflikt med den første eller anden lov

Stop dræberrobotter

Der er en kampagne for at stoppe Killer Robots, en koalition af ikke-statslige organisationer, der forsøger at forebygge dødelige autonome våben (LAWS).

De Forenede Nationers (FN) generalsekretær har opfordret stater til hurtigst muligt at bevæge sig mod bekymringer over dødelige autonome våbensystemer i sin rapport om beskyttelse af civile i væbnede konflikter fra 2020. Dette er den første FN-rapport om beskyttelse af civile siden 2013, der fremhæver generelle bekymringer over dræberrobotter.

I rapporten fra 2020 finder generalsekretær António Guterres, at "alle sider synes at være enige om, at det som minimum er nødvendigt at opretholde menneskelig kontrol eller dømmekraft over brugen af ​​magt." Han bemærker også, at "et stigende antal medlemsstater har opfordret til et forbud mod LOV." Siden november 2018 har FNs generalsekretær gentagne gange udtrykt sit ønske om en ny international traktat om forbud mod dræberrobotter.

Kampagnen for at stoppe dræberrobotter roser FN for at opfordre stater til at blive enige om "begrænsninger og forpligtelser, der skal anvendes på autonomi i våben." Staterne skal nu indlede forhandlinger om en ny international traktat for at forbyde fuldt autonome våben, mens de bevarer meningsfuld menneskelig kontrol over brugen af ​​magt.

Hvordan man dræber en robot

Mest sandsynligt leverer dødbringende autonome robotfabrikanter deres dræberrobotter med en instruktionsmanual, hvor der er mulighed for eksternt at indsætte en sikkerhedskode for at deaktivere en dræberrobot.

Hvis det ikke er en mulighed, ville en pålidelig måde at dræbe en robot være ved hjælp af en elektromagnetisk puls (EMP) til at inducere en høj strøm, der vil udbrænde robotens kredsløb. Dette antages selvfølgelig, at morderen ikke er beskyttet af et Faraday-bur.


Se videoen: The Dawn of Killer Robots Full Length (August 2022).