Týkat se bude každého, kdo umělou inteligenci používá v podnikání. Zasáhne až stamiliony systémů. Tak rozsáhlý bude dopad Aktu o umělé inteligenci na evropský digitální byznys. Nová regulace s sebou přináší přísné požadavky na transparentnost a otevřenost k uživatelům, připomíná v podcastu Perspektivy Česka advokátka White & Case Anna Stárková. Cílem Evropské unie ale není zlikvidovat zdejší AI byznys.

Akt o umělé inteligenci stejně jako další evropské digitální předpisy požaduje, aby firmy vysvětlily, jak jejich algoritmy fungují. „Jde o to vysvětlit, na jakém jazykovém modelu je systém vystavěný, jakým způsobem probíhá jeho rozhodování. Dále regulátory zajímá, jaká data vývojáři použili k trénování a testování umělé inteligence a k ověření jejích výstupů,“ popisuje Stárková.

Zdrojový kód je chráněné duševní vlastnictví

Cílem AI Actu ale rozhodně není nutit firmy vyzradit citlivá obchodní tajemství nebo rozkrýt zdrojový kód. „Evropská unie si hodně hledí ochrany duševního vlastnictví a zdrojový kód je duševní vlastnictví,“ vyvracela Stárková v Perspektivách Česka jednu z rozšířených dezinformací o nejnovější evropské digitální regulaci.

Její slova potvrzuje i Marek Ebert, předseda rady Českého telekomunikačního úřadu, který dostal v Česku na starost dozor nad umělou inteligencí. „Ani my nemáme ambici jít do rozkrývání zdrojového kódu,“ uklidňuje AI byznys. Transparentnost podle něj spočívá v tom, co je opravdu podstatné, a to jsou hlavně tři základní oblasti: bezpečnost, ochrana osobních údajů a ochrana práv uživatelů.

Vysvětlení v pokynech a kodexech

Firmám a vývojářům Stárková doporučuje, aby sledovaly také pokyny a kodexy chování, které k AI Actu na evropské půdě vznikají. „Teď už máme schválenou čtvrtou verzi kodexu k obecným modelům. Jasněji stanovuje požadavky ohledně duševního vlastnictví a transparentnost,“ připomíná advokátka z kanceláře White & Case.

Viceprezidentka Svazu průmyslu a dopravy ČR Milena Jabůrková, která v podcastu reprezentovala zájmy byznysu, vidí ale právě v těchto doprovodných dokumentech jádro problému. Kodexy a prováděcí předpisy k nové regulaci podle ní v Evropské komisi vznikají chaoticky a pozdě. A navíc informací, které musí firmy hlásit úřadům, je příliš. „Ze začátku měl AI Act regulovat jenom vysoké riziko a to ostatní nechat. Teď jsme začali regulovat i obecné systémy a tím pádem vlastně regulujeme všechno – i to, co má minimální riziko,“ varuje Jabůrková.

Inspirace ochranou osobních údajů

Avšak ani tam, kde podrobnější informace a pokyny zatím chybí, nemusí podle Anny Stárkové vývojáři a podniky využívající umělou inteligenci mířit naslepo. Základní principy se v evropských předpisech – AI Act nevyjímaje – opakují. Stačí se tedy podívat, co už platí jinde, a firmy nemusí naskakovat na regulaci umělé inteligence od nuly.

„Úkolem každé digitální regulace je zmapovat procesy, které dělám. Stačí základně. Jakmile to zmapuji, musím najít cestu, jak to vysvětlit adresátovi. A záleží na tom, kdo je adresát, jestli budu vysvětlovat více technicky, nebo polopaticky,“ upozorňuje Stárková, jak si podniky mohou usnadnit práci.

Mohlo by vás zajímat

Radí jim také, aby si vzpomněly, jak nastavovaly povinnosti plynoucí z evropského nařízení o ochraně osobních údajů, takzvaného GDPR. „Podnikatelé o něm zpětně říkají: ‚Vlastně mě to přimělo k tomu se zamyslet, co dělám, jak to dělám a jakým způsobem mohu data používat jinak a zároveň legálně,“ popisuje.

V neposlední řadě firmám doporučuje, aby si ke svým systémům opatřily mezinárodně uznávané certifikáty. Takovéto ověřené nastavení pak mohou podle ní na světovém trhu prodávat jako přidanou hodnotu svých systémů. To jim zajistí důvěryhodnost v očích uživatelů.