Komerční prezentace Aktual.: 7.04.2026 11:32
New York – Americké technologické společnosti OpenAI, Anthropic a Google začaly spolupracovat, aby zabránily čínským konkurentům kopírovat výsledky z nejmodernějších amerických modelů umělé inteligence (AI), a získávat tak výhodu na globálním trhu. S odvoláním na informované zdroje o tom informovala agentura Bloomberg.
Společnosti si vyměňují informace prostřednictvím neziskové organizace Frontier Model Forum, kterou tyto firmy založily společně s firmou Microsoft v roce 2023. Cílem Frontier Model Forum je odhalit pokusy o tzv. adversarial distillation – neautorizované napodobování modelů v rozporu s podmínkami používání.
Ojedinělá spolupráce ukazuje, že firmy mají vážné obavy z toho, že někteří uživatelé, zejména v Číně, vyvářejí napodobeniny jejich produktů. Takové napodobeniny mohou snižovat ceny, způsobit odliv zákazníků a zároveň představovat riziko pro národní bezpečnost. Neautorizované kopírování stojí laboratoře v Silicon Valley každoročně miliardy dolarů, uvádějí odhady amerických úřadů.
Distillation, doslova destilace, je technika, při které se starší model AI nazývaný učitel používá k natrénování nového modelu – studenta. Ten tak dokáže dělat podobné věci jako původní systém, ale často mnohem levněji než by stálo vytvoření nového modelu od začátku. Některé formy destilace jsou běžné a podporované, například když firmy vytvářejí menší a efektivnější verze svých vlastních modelů, nebo umožní vývojářům využít destilaci k tvorbě nekonkurenčních technologií.
Problémy ale nastávají, když destilaci využívají třetí strany, jako je Čína a Rusko, k nelegálnímu kopírování chráněných technologií. Přední americké laboratoře pro AI varují, že zahraniční konkurenti by touto technikou mohli vyvíjet modely AI bez bezpečnostních omezení, tedy že třeba tyto modely nezabrání uživatelům vytvořit smrtící virus nebo jiné nebezpečné technologie.
Většina modelů, které vyvíjejí čínské laboratoře, je tzv. open weight, což znamená, že části jejich základního systému AI jsou veřejně dostupné a kdokoli si je může zdarma stáhnout a používat na svých platformách. To představuje ekonomickou výzvu pro americké firmy, které své modely chrání a spoléhají na to, že zákazníci budou platit za přístup k jejich produktům. Takto se snaží pokrýt stovky miliard dolarů, které investovaly do datových center a další infrastruktury.
Destilace se dostala do pozornosti v lednu 2025 po uvedení modelu R1 čínskou firmou DeepSeek, který svět umělé inteligence ohromil. Brzy poté Microsoft a OpenAI vyšetřovaly, zda start-up neoprávněně nevyužil data z amerických modelů. V únoru společnost OpenAI upozornila americký Kongres, že DeepSeek pokračuje v sofistikovaných pokusech získávat výsledky z jejích modelů a že používá destilaci k vývoji nové verze svého chatbota.
Sdílení informací mezi americkými podniky zaměřenými na umělou inteligenci o neautorizovaném napodobování modelů připomíná běžnou praxi v oblasti kybernetické bezpečnosti, kdy si firmy pravidelně vyměňují data o útocích a postupech útočníků, aby posílily ochranu svých sítí. Spojením sil se firmy zaměřené na AI snaží účinněji odhalovat tyto praktiky, zjistit, kdo za nimi stojí, a zabránit neautorizovaným uživatelům v úspěchu.
Vládní úředníci dali najevo, že podporují sdílení informací mezi firmami zaměřenými na AI, aby omezily neautorizované napodobování. Akční plán pro AI, který loni představil prezident Donald Trump, navrhoval vznik centra pro sdílení a analýzu dat, částečně právě za tímto účelem. Dosud je však výměna informací omezená, protože firmy si nejsou jisté, co mohou sdílet podle antimonopolních pravidel. Ocenily by jasnější směrnice od americké vlády, uvedly zdroje.
‚;
} else {
let zoneId = ‚78406‘;
zoneId = (zoneType === ‚autonaelektrinu‘) ? ‚230106‘ : zoneId;
div.innerHTML = “;
}
}


