
Ilustr. foto. (Michele Tantussi / Getty Images)
Letos v dubnu informoval deník The New York Times o dopisu více než 3 000 zaměstnanců Googlu, ve kterém nesouhlasí se zapojením firmy do vojenského sledování. Kromě jiného se obávali poškození pověsti společnosti a morální odpovědnosti z potenciálních smrtonosných následků nasazení.
Dle Discovermagazine se měl projekt Maven původně soustředit na trénování počítačů, které měly detekovat a zařadit objekty ve videu. Takovéto algoritmy už fungují do určitého stupně, ale další zlepšení by mohlo ušetřit práci analytikům v Pentagonu, kteří sledují bezpočet hodin záznamů z dronů ze zemí jako Sýrie, Irák a Afghánistán.
Stuart Russell, profesor počítačových věd a výzkumník umělé inteligence (AI) na Kalifornské univerzitě v Berkeley, tvrdí, že AI by mohla být v armádě použita eticky, jako například na průzkum, logistické plánování a protiraketovou obranu. Dodává ale také, že stejná technologie může být použita pro smrtonosné zbraně.
Mnoho výzkumníků v oblasti AI je podobně jako Russel proti zbraním, které dokážou samy fungovat bez přímého lidského zásahu.
V reakci na události objasnil výkonný ředitel Googlu, Sundar Pichai, principy firmy v oblasti AI. Google dle něj nebude vyvíjet technologie, které by mohly způsobit ublížení na zdraví, sledovací technologie, které porušují mezinárodně akceptované normy, a dále technologie, jejichž účel jde proti široce přijatému principu mezinárodních lidských práv.
Líbil se vám tento článek? Podpořte nás prosím jeho sdílením na sociálních sítích.