Zahlavi

Vývoj na poli regulace umělé inteligence (AI)

Fri Jun 16 13:11:46 CEST 2023

EU se snaží o regulaci AI uvnitř evropského prostoru i transatlanticky, rozvoj AI však nebude zatím limitován v rámci vědy a výzkumu, rozhodl Evropský parlament (EP). Úplný zákaz však poslanci zavedli na zavádění systémů AI pro biometrické sledování, rozpoznávání emocí a prediktivní policejní práci.

Jak uvádí Science/Business ve svých nejnovější zprávách o tomto dění, snaha o regulaci je motivovaná obavami, že neregulované AI služby typu ChatGPT "mohou být použity k šíření dezinformací nebo by se mohly stát součástí rozhodovacích procesů, ale zároveň skryty." Stručné varování před AI dokonce vydalo i Centrum pro AI bezpečnost: "Zmírnění rizika vyhynutí v důsledku umělé inteligence by mělo být globální prioritou spolu s dalšími společenskými riziky, jako jsou pandemie a jaderná válka."

Poslanci EP tedy rozhodli v návrhu EU legislativy, že je třeba zavést "úplný zákaz systémů umělé inteligence pro biometrické sledování, rozpoznávání emocí a prediktivní policejní práci. Kromě toho musí generativní systémy AI, jako je ChatGPT od OpenAI nebo Bard od Googlu, zveřejnit, kdykoli byl generován jakýkoli typ obsahu." A to "především, pokud takový produkt ovlivňuje lidské chování nebo způsobuje fyzickou a psychologickou újmu."

Poslanci EP zároveň apelují na členské státy, aby "více investovaly do výzkumu umělé inteligence, na kterém se budou společně podílet vývojáři umělé inteligence, akademici, odborníci na nerovnost a nediskriminaci a další zástupci občanské společnosti."

První legilastiva byla navržena Evropskou komisí již v dubnu 2021 a tento krok EP posouvá přijetí tzv. AI zákona blíže k cíli a předpokládá se již koncem roku 2023, avšak přijetí napříč všemi členskými státy může trvat ještě dva až tři roky. A vzhledem k rapidnímu až dramatickému vývoji v AI výzkumu a využití se dá předpokládat, že tou dobou už bude příliš pozdě na zkrocení potenciálních negativních dopadů této technologie.

Hrozba neregulovaného vlivu AI vedla také EU a USA k tomu, že "se nyní pokoušejí zorganizovat mezinárodní koalici vlád a společností, která by vypracovala a podepsala dobrovolný kodex jednání" v oblasti AI, kerý by vyplnil dočasnou mezeru v legislativě. Tento návrh byl předložen na setkání US/EU Trade and Technology Council (TTC) v Luleå ve Švédsku tento týden viceprezidentkou EK Margrethe Vestager. Během setkání byla představena i mapa důvěryhodné AI a management rizik s AI spojených. Viceprezindentka Vestager doufá, že se k tomuto kodexu přidají i Kanada, UK, Japonsko, Indie a jiné státy.

Jak dále uvádí Science/Business, "TTC již zřídila tři expertní skupiny, které mají pracovat na identifikaci standardů a nástrojů pro důvěryhodnou umělou inteligenci. Tato práce bude nyní zahrnovat zaměření na generativní systémy umělé inteligence. Skupiny odborníků se dohodly na taxonomii a terminologii pro umělou inteligenci a sledují vznikající rizika, která umělá inteligence představuje."

Závěrem jedůležité zmínit, že i zástupci soukromého sektoru vyjadřují své obavy a mají zájem na regulaci. Jak uvedl Dario Amodei, šéf americké AI start-up Anthropic, rizika AI spočívají v tom, že nikdo neví, co se stane, až bude AI zpřístupněno milionům lidí, a protože je nesmírně obtížné detekovat nebezpečné schopnosti AI, a tudíž nemožné je zmírnit.

V souvislosti s touto problematikou také doporučujeme podcast s filozofem a odborníkem na etické výzvy současných technologií Markem Coeckelberghem Centra pro environmentální a technologickou etiku – Praha, který se přiklání k regulaci AI.

 

foto: pixabay

Zasílání aktualit

Přihlásit se k odběru aktualit