ilustrační foto: shutterstock

Koho budete volit? A jaké máte sexuální preference? Volně dostupný program to pozná z vaší fotky

Trendy & tipytéma 5 min čtení

Koho bude volit člověk na fotografii? Preferuje opačné či stejné pohlaví? Na sociálních sítích a v internetových seznamkách lidé tyhle otázky řeší běžně. Současný výzkum ale ukazuje, že to umělá inteligence zvládne s větší jistotou – což může být slibné i nebezpečné, záleží jen na způsobu využití.

Líbí se vám článek? Sdílejte ho:

Koho bude volit člověk na fotografii? Preferuje opačné či stejné pohlaví? Na sociálních sítích a v internetových seznamkách lidé tyhle otázky řeší běžně. Současný výzkum ale ukazuje, že to umělá inteligence zvládne s větší jistotou – což může být slibné i nebezpečné, záleží jen na způsobu využití.

Související článek

Průzkum: Lidé očekávají, že jim v budoucnu vybere přátele umělá inteligence

Do roku 2030 budou lidé běžně užívat chytré obleky a jejich soukromí bude chránit umělá inteligence, která jim zároveň doporučí i vhodný okruh přátel. Zároveň budou ale čelit útokům zlých strojů, tzv. zlobotů, kteří se budou snažit ovládnout jejich zařízení prostřednictvím všudypřítomného připojení k internetu. Uvádí to nejnovější výzkum ConsumerLab společnosti Ericsson, který se věnuje předpovědím spotřebitelů ohledně technologického vývoje na dalších 10 let.

„Tomu ta pravda a láska kouká z očí.“ – „Stačí se na ni podívat a je jasné, že by volila Trumpa.“ Podobné myšlenky napadají při pohledu na fotky na Facebooku, Instagramu leckoho, ovšem ve skutečnosti nemají zrovna velkou relevanci. Šance, že se takhle na první pohled trefíme, ve skutečnosti není velká. Výrazně ale roste, když odhad svěříme umělé inteligenci se schopností strojového učení pomocí neuronových sítí. Ta totiž dokáže věci, z nichž ochránce soukromí v digitálním světě právem mrazí.

Dokazuje to mimo jiné výzkum, který počátkem roku publikoval v renomovaném časopise Nature známý americký psycholog polského původu Michal Kosinski, profesor Stanfordovy univerzity v Kalifornii. Výzkumem sociálních sítí se zabývá již řadu let, proslavila ho ovšem bohužel až aféra firmy Cambridge Analytica, která v roce 2018 ukradla data více než 50 milionů uživatelů Facebooku a prodala je k politickým účelům. A zneužila přitom právě Kosinského algoritmy pro psychologickou profilaci uživatelů způsobem, před nímž sám profesor o několik let dříve marně varoval.

Tři ze čtyř lidí zařadí počítač správně

Podobný algoritmus, ovšem z otevřeného zdroje, použil Kosinski i při svém nejnovějším výzkumu. Analytický program při něm zpracoval více než milion veřejně dostupných fotografií z Facebooku a internetových seznamek a nechal umělou inteligenci rozdělit tyto uživatele do dvou základních politických kategorií, které se v USA a Kanadě běžně používají, tedy na konzervativce a liberály. Kosinského tým pak výsledky pak porovnal s informacemi, které o sobě tito uživatelé na sociálních sítích uvádějí sami. A umělá inteligence se trefila v celých 72 %, tedy téměř ve třech čtvrtinách.

Související článek

Brno.AI: umělá inteligence z Brna zatočí s koronavirem a zbaví řidiče kolon

Nově založená platforma Brno.AI sdružuje inovační agenturu JIC, zástupce města Brna a vědce z brněnských univerzit se zavedenými firmami i startupy, které se věnují rozvoji umělé inteligence. Výsledkem mají být nové vynálezy i aplikace do reálného života obyvatel.

V rámci výzkumu přitom zkoušeli základní politickou orientaci uživatelů z fotografií odhadnout i živí lidé. Ti byli úspěšní jen v 55 %, což téměř odpovídá náhodnému výběru (v něm je pravděpodobnost správné trefy ze dvou možností přesně 50 %). Kosinski přitom umělé inteligenci práci nijak neusnadňoval – aby systém nemohl odhadovat politickou orientaci z okolního prostředí, ořízl všechny fotografie tak, aby na nich byl pouze a jedině obličej daného jedince bez pozadí. V druhé fázi výzkumu dokonce nechal počítač hádat jen v rámci jednotlivých věkových skupin a pohlaví, aby výběr ještě více ztížil (je jasné, že u padesátiletých mužů logicky najdeme více konzervativců než u dvacetiletých studentek). I tady si vedla umělá inteligence skvěle – úspěšnost klesla jen o 2-3 procenta.

Stanfordští výzkumníci přitom nepoužívali bůhvíjak sofistikované nástroje – základem byl open-source program VGGFace2, který rozloží tvář na 2048 charakteristických prvků (říká se jim deskriptory), ty pak porovná v databázi s 3 miliony obličeji a vyhodnotí shodné či podobné znaky. „Naším cílem bylo prozkoumat stávající riziko nabourávání soukromí pomocí existujících nástrojů, nikoli vytvářet nové,“ komentuje Kosinski důvod, proč tentokrát nevyvinul vlastní algoritmus.

Ani sexuální orientaci před umělou inteligencí neskryjete

Související článek

K účinnému boji proti fake news stačí veřejně dostupné zdroje

Britská výzkumná agentura Forensic Architecture v minulosti odvedla skvělou práci při odhalování temných míst v ukrajinské nebo syrské válce. Její nejnovější počin vnáší jasno do letní exploze v bejrútském přístavu…

V nejnovějším výzkumu Kosinski navázal na své starší práce, v nichž nechal umělou inteligenci odhadovat například sexuální orientaci uživatelů sociálních sítí. Nejdůležitější výzkum v téhle oblasti podnikl v roce 2018 společně se stanfordským informatikem Yilunem Wangem. I tady oba vědci použili běžně dostupný software na rozpoznávání tváří, prohnali jím 35 326 fotografií a požádali umělou inteligenci, aby vyhodnotila, zda se jedná o jedince preferující opačné či stejné pohlaví. Všechny fotky pocházely z internetové seznamky, jejíž uživatelé svou základní sexuální orientaci uvádějí, vyhodnocení testu bylo tudíž velmi snadné.

Výsledek byl ještě přesvědčivější než u politických preferencí – umělá inteligence se správně trefila u 91 % mužů a 83 % žen. „Vůbec jsem to nečekal, úplně mě šokovalo, že program takhle snadno a spolehlivě homosexuály od heterosexuálů rozezná,“ komentoval to tehdy sám Kosinski pro deník The Guardian. Když v kontrolní skupině hádali sexuální orientaci lidé, měli podstatně nižší úspěšnost (61 % u mužů, 54 % u žen). Umělá inteligence i lidé přitom mohli vycházet jak z vrozených znaků, tak i ze záměrných rysů (účes apod.) „Náš výzkum ukázal, že se v lidských tvářích skrývá mnohem víc informací o sexuální orientaci, než dokáže vnímat a vyhodnotit lidský mozek,“ prohlásil Kosinski.

Varování, ne oslava

Související článek

Krásný nový čínský internet: „internetová suverenita“ nabízí místo svobody tuhou kontrolu

Financial Times přinesly 27. března obsáhlou analýzu Madhumity Murgii a Anny Gross zabývající se čínským projektem „nového internetu“. Jak vyplývá z dalšího textu Financial Times, na rozvoji tohoto projektu se podílí nejen čínské politické vedení, ale i tamní technologické firmy.

Technooptimistům by závěry obou výzkumů mohly udělat radost, protože slouží jako důkaz o fantastických schopnostech umělé inteligence. Jenže sám Kosinski je ohledně jejich využití mnohem skeptičtější. Causa Cambridge Analytica s ním podle jeho vlastních slov dost otřásla a ještě horším dojmem působí například zprávy z Číny, kde se umělá inteligence zaměřená na rozpoznávání tváří zhusta používá k represivním účelům. „Státní orgány všeho druhu se k fotografiím dostanou zcela bez problémů, třeba na Facebooku nebo LinkedIn jsou profilové fotky zásadně veřejné a jejich stažení nepodléhá žádnému souhlasu uživatele. Software pro rozpoznávání tváří tak představuje zcela bezprecedentní riziko pro lidské soukromí,“ varuje.

Jeho vlastní výzkum navíc podle něj zdaleka nepředstavuje strop možností této technologie – mimo jiné proto, že použil open-source zdroje. „Vyšší přesnosti lze dosáhnout velmi snadno – stačí si obstarat více fotografií jednoho člověka, nechat systém hodnotit okolní prostředí nebo vyvinout speciální algoritmus zaměřený výhradně na odhad politických preferencí. Umělá inteligence se navíc rok od roku vyvíjí. Podobné systémy mohou mít obrovský dopad na politické dění, například na volby. Snad to budou mít vědci, politici, technici i občané na paměti.“

Líbí se vám článek? Sdílejte ho:
link odkaz
Reklama