Wydarzenia
Black Week w CEWE FOTOJOKER – skorzystaj z fantastycznych cen
Generatory AI kolejny raz stają się tematem kontrowersji. Sztucznie wygenerowane obrazy trafiają do internetowych banków zdjęć, a stamtąd do mediów, rodząc poważne obawy o autentyczność przekazywanych informacji.
Od kiedy generatory grafiki AI pokroju Dall-E, Stable Diffusion czy Midjourney zostały w zeszłym roku swobodnie udostępnione szerokiej rzeszy użytkowników, tylko kwestią czasu było aż sztuczne stworzone obrazy zaczną stanowić problem nie tylko etyczny, ale i poznawczy.
W ciągu roku, obrazy i usługi AI oszukiwały już jurorów konkursów fotograficznych, starały się zastępować pracę fotografów portretowych, stawały się podstawą funkcjonowania platform marketingowych, przedmiotem kampanii reklamowych i trafiły do większości programów służących do obróbki zdjęć i grafiki. Siłą rzeczy, w niewyobrażalnym tempie zaczęły zapełniać się nimi także internetowe stocki, gdzie - jak wynika z raportu grupy Stockperformer - sprzedają się kilkukrotnie częściej niż tradycyjne zdjęcia.
To, że obrazy AI „zabiją” tradycyjną formę banków zdjęć, przewidywaliśmy od samego początku pojawienia się generatorów grafiki. W końcu opłaca się to zarówno twórcom, którzy są w stanie łatwo i bezkosztowo stworzyć dużą liczbę obrazów, jak i bankom zdjęć, które dostają znacznie większa pulę grafik do zaoferowania (i sprzedaży). Widmo łatwych zarobków zrodziło jednak poważny problem.
Przykładowe wyniki wyszukiwania hasła "gaza conflict" w Adobe Stock
Otóż okazuje się, że ktoś wpadł na pomysł, by za pomocą generatorów AI tworzyć obrazy ilustrujące bieżące wydarzenia, a media - by opatrywać nimi publikowane przez siebie artykuły. Proceder ten został nagłośniony kilka dni temu, gdy okazało się, że Adobe Stock sprzedaje wygenerowane cyfrowo „zdjęcia” konfliktu w Strefie Gazy, które przez niewiedzę czy lenistwo wydawców trafiły do publikacji szeregu dużych outletów mediowych bez informowania o ich źródle.
W dobie wszechobecnej dezinformacji i fake newsów, fotografowie i dziennikarze, którym zależy na rzetelnym raportowaniu informacji chyba nie mogli wyobrazi sobie gorszego scenariusza niż ten. Jednak bardziej niż etyczna strona takich praktyk dziwi reakcja samych zainteresowanych, która stara się rozbić odpowiedzialność o kwestie formalne.
“Adobe Stock to platforma handlowa, która wymaga, aby wszystkie treści generatywnej sztucznej inteligencji były oznaczone jako takie, gdy są przesyłane do licencjonowania. Te konkretne obrazy zostały oznaczone jako generatywna sztuczna inteligencja, gdy zostały przesłane i udostępnione do licencjonowania zgodnie z tymi wymogami. Uważamy, że ważne jest, aby klienci wiedzieli, które obrazy Adobe Stock zostały utworzone przy użyciu narzędzi generatywnej sztucznej inteligencji.” - napisał rzecznik Adobe w oświadczeniu przesłanemu serwisowi Motherboard.
Wygenerowany przez AI obraz z Adobe Stock i wyniki wyszukiwania wstecznego w Google Grafika
Jednocześnie Adobe nie ominęło okazji do zareklamowania inicjatywy CAI i przedstawianie siebie w roli obrońcy rzetelnego dziennikarstwa. „Firma Adobe jest zaangażowana w walkę z dezinformacją, a dzięki inicjatywie Content Authenticity Initiative współpracujemy z wydawcami, producentami kamer i innymi zainteresowanymi stronami, aby przyspieszyć wdrażanie poświadczeń treści na szeroką skalę" - czytamy w dalszej części oświadczenia. "Poświadczenia treści pozwalają ludziom zobaczyć istotny kontekst dotyczący tego, w jaki sposób treść została przechwycona, utworzona lub edytowany, oraz czy do jej powstania wykorzystane były narzędzia AI”.
Tradycyjnie mamy więc do czynienia z sytuacją, gdy przysłowiowy złodziej będąc złapanym za rękę krzyczy, że to nie jego ręka. Obrazy AI przedstawiające konflikt w Gazie na dzień dzisiejszy są nadal dostępne w wyszukiwarce banku Adobe, a sformalizowanie oznaczeń i metadanych w ramach CAI wydaje się po prostu wygodnym pretekstem do dalszego zarabiania na wątpliwej etycznie praktyce. Tym bardziej, że publikacja takich treści balansuje na granicy tego co dozwolone w wytycznych Adobe Stock.
Oczywiście tłumaczeniu Adobe nie można zarzucić braku logiki. To w końcu kupujący odpowiadają za to, do czego wykorzystają pobrane obrazy, a inicjatywy takie jak CAI są potrzebne bardziej niż kiedykolwiek. Problem w tym, że przy dzisiejszym, nastawionym na efektywność i oszczędności rynku wydawniczym tylko niewielka część mediów jest w stanie takimi inicjatywami zawracać sobie głowę. Część z racji wygody zwyczajnie też nie chce tego robić. A już z pewnością nie będą robić tego odbiorcy, którzy przyzwyczajeni są dziś do błyskawicznego konsumowania i powielania treści. Wszystko to prowadzi do sytuacji, gdzie obrazy stworzone przez AI, coraz cześciej będą w stanie na dużą skalę wypaczać zbiorowe wyobrażenie na temat danych wydarzeń, nawet jeśli nie bezpośrednio.
Czy stoimy w obliczu zapaści rynku informacyjnego? Z pewnością wkraczamy w moment, gdzie potrzebne stają się nowe środki i platformy służące rzetelnemu przekazywaniu informacji. Jak miałyby one wyglądać, na razie nie wiemy. Możemy być jednak pewni, że skoro opisane wyżej sytuacje stają się już powszechne, walka z nimi na polu znanych nam mediów może okazać się bardzo trudna.
Źródło: vice.com.