Môže umelá inteligencia sama zabíjať?

Nástup autonómnych zbraňových systémov so sebou prináša nové otázky, na ktoré nebude vždy jednoduché nájsť odpoveď.

Môže umelá inteligencia sama zabíjať?
Robot Atlas od Boston Dynamics (Zdroj: Boston Dynamics)
Písmo: A- | A+
Diskusia  (1)

Čoraz väčšia digitalizácia a rozvoj umelej inteligencie spôsobil, že sa častejšie stretávame so strojmi, ktoré dokážu vykonávať úkony samostatne na základe predurčených príkazov a s rozvojom umelých neurónových sietí či kvantových procesorov sa dokonca dokážu aj samé rozhodovať, komunikovať, či plynulo pohybovať. Tieto technológie nachádzajú čoraz väčšie využitie vo vojenskom priemysle a z autonómnych strojov sa stávajú zbrane s primárnym účelom zneškodniť protivníka. Čoraz častejšie sú diskutované etické otázky týchto systémov a to, či by tieto stroje mali samostatne rozhodovať o zabití človeka a či je takéto zabitie vôbec obhájiteľné. Svet sa pri tvorbe autonómnych a inteligentných strojov neriadi tromi zákonmi robotiky Isaaca Asimova, ktoré formuloval vo svojich dielach o robotoch a využíva ich aj za účelom zabíjania.

SkryťVypnúť reklamu
Článok pokračuje pod video reklamou

Aký je však rozdiel medzi priamym a nepriamym zabitím človeka? Ak je človek stvoriteľom stroja, ktorý sa rozhodne niekoho zabiť, za smrťou stále stojí človek – stvoriteľ. A je dôležité poznamenať, že autonómne zbraňové systémy majú byť použité na vojenské účely, čiže na bojisku a v boji proti nepriateľovi, nie proti civilistom. Stroje nemajú city, necítia hnev, strach alebo netúžia po pomste – nemajú dôvod na porušovanie ľudských práv a vojenských konvencií. Je preto dôležité, aby sa takéto systémy nedali zneužiť a boli dostatočne zabezpečené pred kybernetickými útokmi, ale ich úplný zákaz by bol chybou a spomalil by technologický vývoj v tejto oblasti.

SkryťVypnúť reklamu

Stroje nemajú city, necítia hnev, strach alebo netúžia po pomste – nemajú dôvod na porušovanie ľudských práv a vojenských konvencií.

Európska regulácia a čínska akcelerácia

Európska únia pred 2 rokmi vyzvala na úplný zákaz autonómnych zbraňových systémov, čim naštartovala aktivizmus v tejto oblasti. Viacero organizácií a výskumníkov zaoberajúcich sa umelou inteligenciou následne podpísalo dokument, ktorým sa zaväzujú k zákazu skúmania vražedných autonómnych zbraňových systémov, ktoré môžu rozhodnúť samostatne o vzatí ľudského života. Volajú taktiež po aplikácii zákonov robotiky, či dokonca po ich aktualizácii o nové.

Odpor k rozvoju týchto systémov však nebude ustupovať, pokiaľ bude vývoj pokračovať ďalej, čo sa aj deje. Rozvoj autonómnych zbraňových systémov totiž rozporuje súčasné vnímanie priebehu vojen, ale aj samotné vnímanie morality. Vývoj týchto systémov však pokračuje ďalej z toho dôvodu, že krajiny s autokratickým zriadením, ako napríklad Čínska ľudová republika, využívajú rozvoj civilnej robotiky na vojenské účely. Čína si dokonca dala za cieľ stať sa lídrom v oblasti robotiky do roku 2030 a to núti krajiny ako Spojené štáty ďalej túto oblasť militarizovať a rozvíjať ju aj na vojenské účely, aby dokázali ozbrojené sily tejto krajiny konkurovať čínskym. Obranný priemysel je preto nútený pokračovať v konfrontácii s morálnymi zásadami, o ktorých hovoria najmä pacifistickí aktivisti a civilní inžinieri.

SkryťVypnúť reklamu

Tieto technológie vytvárajú kontroverzie kvôli tomu, že úplne narúšajú vnímanie toho ako aktéri medzi sebou súperia, čo úplne mení pravidlá vedenia ozbrojených konfliktov. Pritom však autonómne zbraňové systémy nemajú za cieľ nahradiť iné technológie ako tradične býva zvykom, ale skôr sa jedná o úplne nové eso v rukáve súperov, čím kompletne menia spôsob, akú taktiku voči sebe zvolia. Možno túto zmenu prirovnať k nástupu Internetu, s čím sa muselo vyrovnať mnoho odvetví civilného, najmä informačno-zábavného priemyslu.

Odmietavý postoj k týmto technológiám sa však ozýva najmä z radov pacifistov, ktorých názor sa nezmení a presadzujú úplný zákaz zbraní. Autonómne zbraňové systémy pokladajú za nežiadanú evolúciu samotných zbraní, ktorej treba zabrániť. Takýto postoj však môže byť kontraproduktívny v ich úsilí, ktorým by malo byť minimalizovať ľudské straty v ozbrojených konfliktoch. Nikto totiž s určitosťou nevie, či tieto zbrane sú jednoznačne zlé a prispejú k väčším ľudským stratám, môže to byť práve naopak. Hlavnými argumentom proti autonómnym zbraňovým systémom je tvrdenie, že vytvárajú medzeru v zodpovednosti za činy, čo môže podkopať medzinárodné ľudské právo a dehumanizovať ozbrojené konflikty na morálne neakceptovateľnú úroveň. Môžu tiež znížiť hranice potrebné k vzniku konfliktu alebo znecitlivieť vojakov zasahujúcich do ovládania strojov, či znížiť ich zodpovednosť a ostražitosť tým, že sa spoľahnú na autonómne stroje. Tieto nedostatky umelej inteligencie môžu byť vyriešené jej zdokonaľovaním.

SkryťVypnúť reklamu

Problém systémov nezávislých na ľudskom rozhodovaní

Najväčšie kontroverzie však vzbudzujú autonómne systémy, ktoré dokážu rozhodnúť o smrti človeka samostatne. Tie paradoxne môžu v ozbrojenom konflikte zachrániť aj najviac životov. Ako som už spomínal, tieto stroje nemajú city, necítia hnev a nemajú potrebu pomsty ako ľudia. Riadia sa jasne stanovenými pravidlami a necielia na civilistov, nemajú potrebu porušovať ľudské práva a vojenské konvencie ak k tomu nedostanú príkaz. Navyše sú stroje oveľa presnejšie ako ľudia, čím môžu zabrániť zbytočným ľudským stratám. Ich schopnosti a presnosť do veľkej miery závisia od výpočtovej sily čipov v nich a od toho sa odvíja aj schopnosť strojov spracovať okolité prostredie. To znamená, že čím má stroj väčší výkon, tým dokonalejšie dokáže vnímať svoju hmotnú existenciu, okolité prostredie a robiť menej chýb. V momente ako umelá inteligencia prekoná v morálnych rozhodnutiach človeka, stáva sa spravodlivejšou. Ak by tieto stroje boli postavené proti sebe v konfliktoch namiesto ľudí, znížila by sa ľudská angažovanosť v konflikte a mohlo by dôjsť k podstatnej redukcii ľudských strát v konfliktoch a v rizikových operáciách.

...čím má stroj väčší výkon, tým dokonalejšie dokáže vnímať svoju hmotnú existenciu, okolité prostredie a robiť menej chýb. V momente ako umelá inteligencia prekoná v morálnych rozhodnutiach človeka, stáva sa spravodlivejšou.

Robotický pes od spoločnosti Ghost Robotics vybavený nočným videním a odstreľovacou puškou.
Robotický pes od spoločnosti Ghost Robotics vybavený nočným videním a odstreľovacou puškou. (zdroj: Ghost Robotics)

Ak by takéto zbraňové systémy boli nasadené do priamych bojov, je potrebné určiť na medzinárodnej úrovni, kto by bol za odňatie ľudského života strojom zodpovedný. Stroje môžu byť chybné a mať vo svojom kóde chyby, pretože boli vytvorené človekom, ktorý nie je zďaleka dokonalý tvor. Môže dôjsť k nechceným ľudským stratám na základe chybných výpočtov a napriek tomu, že toto riziko je nižšie ako pri ľuďoch, nie je nulové. Je nutné určiť, kto musí niesť za fungovanie týchto autonómnych strojov zodpovednosť. Či to bude chyba operátora, ktorý systém nepoužíval správne alebo chyba výrobcu, ktorý v ňom vytvoril konštrukčnú vadu alebo samotného inžiniera, ktorý systém zle navrhol. Zdrojom chyby v stroji je stále človek a iba človek je zodpovedný za rozhodnutia stroja.

Zdrojom chyby v stroji je stále človek a iba človek je zodpovedný za rozhodnutia stroja.

Umelá inteligencia je jeden z najrevolučnejších výtvorov ľudstva. Ľudstvo dokázalo vytvoriť stroj, ktorý ho svojimi schopnosťami dokáže prekonať a zachádza za hranice jeho chápania. Aj keď je vývoj umelej inteligencie iba vo svojich počiatkoch a nedokáže si stále úplne uvedomovať svoju existenciu či mať vlastné pocity, vývoj napreduje míľovými krokmi a nachádza využitie aj vo vojenstve.  

Ľudstvo dokázalo vytvoriť stroj, ktorý ho svojimi schopnosťami dokáže prekonať a zachádza za hranice jeho chápania.

Autonómne zbraňové systémy sú bezpochyby revolučnou zmenou vo vedení ozbrojených konfliktov a vzbudzujú kontroverzie. Podľa niektorých by umelá inteligencia nemala byť schopná zabiť človeka a už vôbec rozhodovať o jeho smrti samostatne, ale každým rozhodnutím stroja stojí človek, ktorý ho vytvoril. Je otázne, či je správne, aby sa autonómne zbraňové systémy zakazovali, pokiaľ nevieme určiť, do akej miery a akým spôsobom by zmenili dynamiku konfliktov, pretože nikdy neboli nasadené v ozbrojených konfliktoch. Autonómne zbraňové systémy môžu byť jedinečnou príležitosťou ľudstva na redukciu zbytočných úmrtí ľudí vo vojnových konfliktoch, ale pokiaľ budú zneužité, môžu byť nástrojom k masovej deštrukcii všetkého, preto je dôležité ich zabezpečenie a aplikácia medzinárodných kontrolných mechanizmov. Ľudstvo je na križovatke a výber cesty rozhodne o jeho ďalšom vývoji.

Alec Borový

Alec Borový

Bloger 
  • Počet článkov:  4
  •  | 
  • Páči sa:  19x

Som študentom Fakulty sociálnych štúdií Masarykovej univerzity v Brne, konkrétne programov bezpečnostné a strategické štúdie a mediznárodné vzťahy. Venujem sa hlavne témam týkajúcich sa Afriky a Ázie a kybernetickej bezpečnosti. Venujem sa taktiež fotografovaniu a tvorbe digitálneho umenia. Zoznam autorových rubrík:  Nezaradená

Prémioví blogeri

Lucia Šicková

Lucia Šicková

4 články
Zmudri.sk

Zmudri.sk

3 články
Adam Valček

Adam Valček

14 článkov
Milota Sidorová

Milota Sidorová

5 článkov
SkryťZatvoriť reklamu