(+420) 731 001 877 makler@tomaskopa.cz
Od 2. srpna 2025 nabývají účinnosti další části Aktu o umělé inteligenci – Legislativa

Od 2. srpna 2025 nabývají účinnosti další části Aktu o umělé inteligenci – Legislativa

Reklama
Reklama

Pravidla Aktu o umělé inteligenci týkající se obecných modelů AI nabývají od 2. srpna 2025 účinnosti. Nová pravidla se dotknou zejména velkých poskytovatelů AI modelů – jako například ChatGPT, Gemini a Claude.

 

Ještě na začátku července bylo velmi nejasné, jak pravidla AI Aktu vykládat a co přesně budou poskytovatelé od 2. srpna 2025 implementovat.

Po velmi intenzivní debatě s mnoha stakeholdery byl následně zveřejněn Kodex správné praxe pro obecné modely AI, jehož zveřejnění předpokládá přímo AI Akt. „Kodex upřesňuje, jak splnit povinnosti vyplývající z Aktu o umělé inteligenci, a současně usnadní poskytovatelům prokazování jejich souladu s požadavky AI Actu.“ uvádí seniorní advokátka Štěpánka Havlíková z pražské kanceláře Dentons.

Přínos kodexu spočívá především v tom, že požadavky nařízení převádí do konkrétních závazků týkajících se bezpečnosti, transparentnosti a autorských práv. Kodex obsahuje mimo jiné vzor formuláře pro technickou dokumentaci modelů, závazky podporující dodržování autorských práv při používání tréninkových dat, a postupy pro zajištění bezpečnosti a řízení rizik u obecných modelů AI se systémovým rizikem.

Pravidla se vztahují na obecné modely AI uvedené na trh po 2. srpnu 2025. „Pro modely uvedené na trh před 2. srpnem 2025 platí dvouleté přechodné období do srpna 2027 a souladu s požadavky AI Actu pro obecné modely musí tedy dosáhnout v této prodloužené lhůtě,“ uvádí Štěpánka Havlíková.

 

Jaké změny můžeme od 2. srpna 2025 očekávat

Dá se očekávat, že nové AI modely, které budou uvedeny na trh po účinnosti nových pravidel, tedy po 2. srpnu 2025, budou doprovázeny technickou dokumentací dle vzoru EU Komise, informacemi pro další subjekty v dodavatelském řetězci, kteří zamýšlí na základě AI modelů stavět další AI produkty, jakož i shrnutí, jaká data byla použita ke trénování modelu.

Kodex správné praxe se vztahuje jak na obecné modely umělé inteligence (GPAI), tak na obecné modely AI se systémovým rizikem (GPAI-SR), které podléhají přísnějším pravidlům. Open-source GPAI jsou z některých povinností vyňaty, ledaže spadají do kategorie modelů se systémovým rizikem.

Kodex není právně závazný a jeho přijetí je dobrovolné,“ vysvětluje Štěpánka Havlíková. „Výrazně však usnadní poskytovatelům prokázat, že požadavky na transparentnost, autorská práva a bezpečnost podle AI Aktu splňují“. Někteří poskytovatelé již veřejně oznámili, že Kodex podepíší. Poskytovatelé, kteří se rozhodnou kodex nepodepsat, budou muset prokázat, že k zajištění povinnosti vyplývajících z Aktu přijali vhodná, účinná a přiměřená opatření.

Vedle Kodexu správné praxe vydala Komise komplexní pokyny k rozsahu povinností poskytovatelů obecných modelů AI. Tyto pokyny mimo jiné upřesňují, kdy se model považuje za GPAI, kdy je subjekt poskytovatelem uvádějícím na trh GPAI, či jaké modely spadají pod výjimku pro open source modely. Pokyny rovněž obsahují podrobné metodiky pro zjišťování trénovacích výpočtů a podrobnosti o vymáhání povinností poskytovatelů.

Následně Komise též vydala vzorový formulář pro shrnutí dat použitých pro trénování modelů GPAI, což patří mezi jednu z povinností poskytovatelů obecných modelů.

Poskytovatelé obecných modelů se na pravidla již připravují a s ohledem na tento převratný vývoj se dají očekávat zásadní novinky při uvádění AI modelů na trh v EU,“ uzavírá seniorní advokátka Štěpánka Havlíková.

 

Zdroj: Dentons
Foto: pixabay.com

0/5 (0 Reviews)
Reklama
Reklama
Odebírat články (NEWSLETTER)....nebojte žádný SPAM, ruku na to
Reklama
Reklama