vlad
Respected Leader
Aihe nousi esille tänään niin YLE:n kuin myös HS:n uutisten myötä, joten otetaan nostetaan asia palstalla pöydälle.
YLE:n uutinen: http://yle.fi/uutiset/jarjesto_varo...hka_saataisi_ketaan_vastuuseen__video/7918148
HS:n uutinen: http://www.hs.fi/ulkomaat/a1305945141286
Uutisten otsikoissa kirjoitetaan raflaavasti ”tappajaroboteista” mutta kieltäydyn käyttämästä kyseistä termiä tässä viestissä sen osoittelevuuden tähden.
”YK:n tulisi kieltää automaattisesti toimivat itsenäiset asejärjestelmät ja niiden kehittäminen välittömästi, todetaan Harvardin yliopiston ja ihmisoikeusjärjestö Human Rights Watchin raportissa.
Tuore raportti vaatii, että tappajaroboteiksi kutsutut itsenäisesti operoivat aseet tulisi kieltää YK:n kansainvälisellä sopimuksella, kertoo The Guardian.
Raporttia varten laaditun tutkimuksen mukaan voimassa oleva lainsäädäntö on sellainen, että täysin automaattisten asejärjestelmien aiheuttamista kuolemista ei saataisi vastuuseen ohjelmoijia, laitteiden valmistajia sen enempää kuin armeijoiden komentajiakaan. Vastuun selvästi määrittelevää lakia ei ole tutkijoiden mukaan nähtävissä myöskään tulevaisuudessa.” (lainaus: Helsingin Sanomat).
Jos asiaa tarkastellaan tältä pohjalta, niin tietty siihen sisältyy olemassa oleva riski, että taistelurobotti tekee itsenäisen päätöksen ja toiminnallaan aiheuttaa huomattavia siviilihenkilöiden tappioita eikä teosta saataisi ketään vastuuseen. Mutta kysymys kuuluu, että onko riski niin suuri, että sen tähden taistelurobottien ts. automaattisesti toimivien itsenäisten asejärjestelmien kehittäminen ja käyttäminen tulisi kieltää kansainvälisesti?
”Armeijat, puolustusvoimat ja valtioiden hallitukset ovat puolustaneet nykyisiä etäohjattuja lennokkeja vetoamalla siihen, että toisessa päässä päätöksen esimerkiksi ohjusten laukaisusta tekee aina ihminen.
Nopea teknologinen kehitys on viemässä järjestelmiä kuitenkin jo kohti toista vaihetta, missä aseet voisivat valita kohteensa itsenäisesti. Se on saanut niin tiedemiesten kuin ihmisoikeusjärjestöjen hälytyskellot soimaan.
"Täysin automaattisia aseita ei vielä ole, mutta tekniikka on menossa siihen suuntaan, ja esiasteita nähdään jo käytössä tai kehittelyssä. Monet maat käyttävät esimerkiksi puolustusjärjestelmiä, jotka on ohjelmoitu vastaamaan automaattisesti lähestyviin ammuksiin ja muihin sotatarvikkeisiin", raportissa todetaan.” (lainaus: HS).
Nykyisin käytössä olevissa järjestelmissä ihminen tekee aina päätöksen tulen avaamisesta, joskin kuten tiedämme, siviiliuhreilta ei voida välttyä – niitä tulee aivan samalla tapaa kuin perinteisemmässäkin sodankäynnissä. Ei voida sotia ilman uhreja!
Mutta ovatko nämä ihmisuhrit hyväksyttävissä tapauksessa, jossa täysin automaattinen asejärjestelmä (tulevaisuudessa) tekee päätöksen tulittaa kohdetta ja siinä sivussa tulee suuri joukko siviiliuhreja vai olisiko asejärjestelmien kielto perusteltavissa? Ja toisaalta onko siinä loppujen lopuksi suurta eroa tekeekö sen päätöksen lopulta ihminen vai automaattinen asejärjestelmä? Mitä suurimmalla todennäköisyydellä kummassakin tapauksessa kohde tuhotaan (sivullisista uhreista välittämättä) jos se on tarkoituksenmukaista, mutta onko olemassa niin suuri riski, että automatisoidut järjestelmät tulittavat kohteita myös niissä tapauksissa joissa sitä pidettäisi epätarkoituksenmukaisena? Sanoisin, että riski on olemassa oleva mutta onko se hyväksyttävissä oleva riski? (Oma yleinen kantani myöhemmin).
Minun on hyvin vaikea nähdä, että tässä kohdin on mahdollista enää ottaa taka-askeleita – aivan liian monella merkittävällä sotilasvallalla on meneillään projekteja ja suunnitelmia eriasteisten automatisoitujen tai puoliautomatisoitujen järjestelmien luomiseksi nykyisten oheen ja tilalle, joten epäilen suuresti, että nämä valtiot olisivat valmiita ottamaan taka-askeleita ja jäädyttämään tilanteen. Ja jos yksikin merkittävä asemahti päättää jatkaa kehittelytyötä on vaikea kuvitella, että muut eivät seuraisi perässä jos teknologinen kyvykkyys siihen riittää. Vaakakupissa kun on myös se omien sotilaiden suojeleminen ja omien tappioiden minimoiminen ja teknologian avulla tappioita on mahdollista minimoida entisestään.
Ja vielä siitä eettisestä ongelmasta:
”Jos rikoksista ei rangaistaisi, ei myöskään olisi pelotetta tulevia rikoksia vastaan, Human Rights Watch sanoo.” (lainaus: yle.fi)
Konetta ei tietenkään voi rangaista, mutta onko oikeutettua ulottaa rangaistusta ohjelmoijaan, suunnittelijaan tai operaation komentajaan jos taistelurobotti tekee automaattisen päätöksen tulittaa kohdetta ja syntyy huomattavia siviiliuhreja? Ja jos ketään ei voi rangaista on inhimillistä, että ”sivulliset uhrit” laitettaisi tietyissä tapauksissa taistelurobotin häiriön tai tietokoneohjelman bugin tms. piikkiin – niin se vaan menee. Minä en kuitenkaan lähtisi ulottamaan rangaistuksia em. tahoihin, en missään tapauksissa.
Oma kantani näihin taistelurobotteihin (eli automaattisiin asejärjestelmiin) on myönteinen ja tarkastelen asiaa kylmän viileästi siltä näkökantilta, että omien tappioiden minimoiminen on tärkeää ja jos erilaisin asejärjestelmin tämä on mahdollista, tuolloin on järkevää pyrkiä varustamaan asevoimat/puolustusvoimat myös tällaisilla asejärjestelmillä – ne eivät välttämättä voi (vielä) olla hallitsevassa roolissa mutta ne täydentävät kokonaisuutta. Tietenkin on mietittävä mahdollisia seuraamuksia ja mitä ongelmia voi seurata jos ”koneille antaa liikaa valtaa” eli sillä ihmiselläkin on oltava oma sijansa ja asemansa mutta eettisten syiden tähden en lähtisi rajoittamaan näiden kehittelyä tai niiden hankkimista.
Jatketaan keskustelua.
vlad.
YLE:n uutinen: http://yle.fi/uutiset/jarjesto_varo...hka_saataisi_ketaan_vastuuseen__video/7918148
HS:n uutinen: http://www.hs.fi/ulkomaat/a1305945141286
Uutisten otsikoissa kirjoitetaan raflaavasti ”tappajaroboteista” mutta kieltäydyn käyttämästä kyseistä termiä tässä viestissä sen osoittelevuuden tähden.
”YK:n tulisi kieltää automaattisesti toimivat itsenäiset asejärjestelmät ja niiden kehittäminen välittömästi, todetaan Harvardin yliopiston ja ihmisoikeusjärjestö Human Rights Watchin raportissa.
Tuore raportti vaatii, että tappajaroboteiksi kutsutut itsenäisesti operoivat aseet tulisi kieltää YK:n kansainvälisellä sopimuksella, kertoo The Guardian.
Raporttia varten laaditun tutkimuksen mukaan voimassa oleva lainsäädäntö on sellainen, että täysin automaattisten asejärjestelmien aiheuttamista kuolemista ei saataisi vastuuseen ohjelmoijia, laitteiden valmistajia sen enempää kuin armeijoiden komentajiakaan. Vastuun selvästi määrittelevää lakia ei ole tutkijoiden mukaan nähtävissä myöskään tulevaisuudessa.” (lainaus: Helsingin Sanomat).
Jos asiaa tarkastellaan tältä pohjalta, niin tietty siihen sisältyy olemassa oleva riski, että taistelurobotti tekee itsenäisen päätöksen ja toiminnallaan aiheuttaa huomattavia siviilihenkilöiden tappioita eikä teosta saataisi ketään vastuuseen. Mutta kysymys kuuluu, että onko riski niin suuri, että sen tähden taistelurobottien ts. automaattisesti toimivien itsenäisten asejärjestelmien kehittäminen ja käyttäminen tulisi kieltää kansainvälisesti?
”Armeijat, puolustusvoimat ja valtioiden hallitukset ovat puolustaneet nykyisiä etäohjattuja lennokkeja vetoamalla siihen, että toisessa päässä päätöksen esimerkiksi ohjusten laukaisusta tekee aina ihminen.
Nopea teknologinen kehitys on viemässä järjestelmiä kuitenkin jo kohti toista vaihetta, missä aseet voisivat valita kohteensa itsenäisesti. Se on saanut niin tiedemiesten kuin ihmisoikeusjärjestöjen hälytyskellot soimaan.
"Täysin automaattisia aseita ei vielä ole, mutta tekniikka on menossa siihen suuntaan, ja esiasteita nähdään jo käytössä tai kehittelyssä. Monet maat käyttävät esimerkiksi puolustusjärjestelmiä, jotka on ohjelmoitu vastaamaan automaattisesti lähestyviin ammuksiin ja muihin sotatarvikkeisiin", raportissa todetaan.” (lainaus: HS).
Nykyisin käytössä olevissa järjestelmissä ihminen tekee aina päätöksen tulen avaamisesta, joskin kuten tiedämme, siviiliuhreilta ei voida välttyä – niitä tulee aivan samalla tapaa kuin perinteisemmässäkin sodankäynnissä. Ei voida sotia ilman uhreja!
Mutta ovatko nämä ihmisuhrit hyväksyttävissä tapauksessa, jossa täysin automaattinen asejärjestelmä (tulevaisuudessa) tekee päätöksen tulittaa kohdetta ja siinä sivussa tulee suuri joukko siviiliuhreja vai olisiko asejärjestelmien kielto perusteltavissa? Ja toisaalta onko siinä loppujen lopuksi suurta eroa tekeekö sen päätöksen lopulta ihminen vai automaattinen asejärjestelmä? Mitä suurimmalla todennäköisyydellä kummassakin tapauksessa kohde tuhotaan (sivullisista uhreista välittämättä) jos se on tarkoituksenmukaista, mutta onko olemassa niin suuri riski, että automatisoidut järjestelmät tulittavat kohteita myös niissä tapauksissa joissa sitä pidettäisi epätarkoituksenmukaisena? Sanoisin, että riski on olemassa oleva mutta onko se hyväksyttävissä oleva riski? (Oma yleinen kantani myöhemmin).
Minun on hyvin vaikea nähdä, että tässä kohdin on mahdollista enää ottaa taka-askeleita – aivan liian monella merkittävällä sotilasvallalla on meneillään projekteja ja suunnitelmia eriasteisten automatisoitujen tai puoliautomatisoitujen järjestelmien luomiseksi nykyisten oheen ja tilalle, joten epäilen suuresti, että nämä valtiot olisivat valmiita ottamaan taka-askeleita ja jäädyttämään tilanteen. Ja jos yksikin merkittävä asemahti päättää jatkaa kehittelytyötä on vaikea kuvitella, että muut eivät seuraisi perässä jos teknologinen kyvykkyys siihen riittää. Vaakakupissa kun on myös se omien sotilaiden suojeleminen ja omien tappioiden minimoiminen ja teknologian avulla tappioita on mahdollista minimoida entisestään.
Ja vielä siitä eettisestä ongelmasta:
”Jos rikoksista ei rangaistaisi, ei myöskään olisi pelotetta tulevia rikoksia vastaan, Human Rights Watch sanoo.” (lainaus: yle.fi)
Konetta ei tietenkään voi rangaista, mutta onko oikeutettua ulottaa rangaistusta ohjelmoijaan, suunnittelijaan tai operaation komentajaan jos taistelurobotti tekee automaattisen päätöksen tulittaa kohdetta ja syntyy huomattavia siviiliuhreja? Ja jos ketään ei voi rangaista on inhimillistä, että ”sivulliset uhrit” laitettaisi tietyissä tapauksissa taistelurobotin häiriön tai tietokoneohjelman bugin tms. piikkiin – niin se vaan menee. Minä en kuitenkaan lähtisi ulottamaan rangaistuksia em. tahoihin, en missään tapauksissa.
Oma kantani näihin taistelurobotteihin (eli automaattisiin asejärjestelmiin) on myönteinen ja tarkastelen asiaa kylmän viileästi siltä näkökantilta, että omien tappioiden minimoiminen on tärkeää ja jos erilaisin asejärjestelmin tämä on mahdollista, tuolloin on järkevää pyrkiä varustamaan asevoimat/puolustusvoimat myös tällaisilla asejärjestelmillä – ne eivät välttämättä voi (vielä) olla hallitsevassa roolissa mutta ne täydentävät kokonaisuutta. Tietenkin on mietittävä mahdollisia seuraamuksia ja mitä ongelmia voi seurata jos ”koneille antaa liikaa valtaa” eli sillä ihmiselläkin on oltava oma sijansa ja asemansa mutta eettisten syiden tähden en lähtisi rajoittamaan näiden kehittelyä tai niiden hankkimista.
Jatketaan keskustelua.
vlad.