Ilustr. foto. (Michele Tantussi / Getty Images)
Ilustr. foto. (Michele Tantussi / Getty Images)
Google nedávno přistoupil na protesty svých zaměstnanců tím, že omezil svoji účast v projektu americké armády jménem Maven. Jde o projekt Pentagonu týkající se učících algoritmů umělé inteligence sloužících k detekci a identifikaci lidí nebo objektů v záznamech vojenských dronů.

Letos v dubnu informoval deník The New York Times o dopisu více než 3 000 zaměstnanců Googlu, ve kterém nesouhlasí se zapojením firmy do vojenského sledování. Kromě jiného se obávali poškození pověsti společnosti a morální odpovědnosti z potenciálních smrtonosných následků nasazení.

Dle Discovermagazine se měl projekt Maven původně soustředit na trénování počítačů, které měly detekovat a zařadit objekty ve videu. Takovéto algoritmy už fungují do určitého stupně, ale další zlepšení by mohlo ušetřit práci analytikům v Pentagonu, kteří sledují bezpočet hodin záznamů z dronů ze zemí jako Sýrie, Irák a Afghánistán.

Stuart Russell, profesor počítačových věd a výzkumník umělé inteligence (AI) na Kalifornské univerzitě v Berkeley, tvrdí, že AI by mohla být v armádě použita eticky, jako například na průzkum, logistické plánování a protiraketovou obranu. Dodává ale také, že stejná technologie může být použita pro smrtonosné zbraně.

Mnoho výzkumníků v oblasti AI je podobně jako Russel proti zbraním, které dokážou samy fungovat bez přímého lidského zásahu. 

V reakci na události objasnil výkonný ředitel Googlu, Sundar Pichai, principy firmy v oblasti AI. Google dle něj nebude vyvíjet technologie, které by mohly způsobit ublížení na zdraví, sledovací technologie, které porušují mezinárodně akceptované normy, a dále technologie, jejichž účel jde proti široce přijatému principu mezinárodních lidských práv.


Líbil se vám tento článek? Podpořte nás prosím jeho sdílením na sociálních sítích.