Generovn obrzk pomoc nstroj vyuvajcch umlou inteligenci, jako jsou DALL-E, Midjourney, Stable Diffusion nebo StarryAI, je snadn a vsledky mohou bt jakkoli na kle od fantaskn zbavnch po velmi realistick. Co me bt ve svt, kde se dezinformace a fake news leckdy spn opraly i o doslova amatrskou kreativitu v grafickm editoru, docela nebezpen.
Spolenost Meta oznmila, e v dohledn dob zane takto vytvoen obrzky viditeln oznaovat nejsp podobn jako placenou spoluprci na instagramovch tech influencer.
Rozdl mezi lidskm a syntetickm obsahem se str a lid chtj vdt, kde le hranice, uvedl v blogovm pspvku Nick Clegg, prezident spolenosti Meta pro globln zleitosti.
M to ale hek. Tmito ttky budou oznaeny jen obrzky vytvoen AI nstroji spolenost Google, Microsoft, OpenAI, Adobe, Midjourney a Shutterstock, a to jet a ve chvli, kdy do nich budou tyto nstroje vkldat digitln vodoznaky (a dal souvisejc metadata), podle kterch systmy spolenosti Meta uml obsah rozpoznaj. Obrzky, kter uivatel vytvo pmo nstroji Mety, tak budou identifikanm vodoznakem vybaveny tak.
V podstat ve stejnou chvli oznmila spolenost OpenAI, e bude do obrzk vytvoench ve svm nstroji DALL-E 3 vodoznaky taky pidvat. Doplnn metadata budou odpovdat standardm koalice C2PA (Coalition for Content Provenance and Authenticity). Soust obrzku tak bude okem neviditeln vodoznak i okem viditeln symbol v levm hornm rohu.
Podobnou ochranu nkter jin nstroje ji obsahuj nebo tak pracuj na jej implementaci. Ochrann vodoznaky jsou zatm k dispozici pouze pro obrzky, nikoli videa i texty.
Pvod obrzku mete zkusit ovit napklad na contentcredentials.org/verify
Krom automatick identifikace v stch Meta si bude moct pvod obrzku zkontrolovat kad uivatel, napklad v ovovacm nstroji Content Credentials Verify na webu contentcredentials.org/verify.
Dleit varovn na zvr: To, e se firmy budou snait obrzky vytvoen pomoc AI oznaovat, neznamen, e ty neoznaen bude mon automaticky povaovat za opravdov.