Software
Od obrazków AI już nie uciekniemy. Najpopularniejsze generatory już niebawem w Adobe Creative Cloud
W dość nieoczekiwanym ruchu Adobe otwiera się na zewnętrzne generatory. Już niebawem w aplikacjach Adobe skorzystamy z generatora obrazu Chata GPT, Google Image 3, Neo 2 czy fal.ai Ideogram, Luma, Pika i Runway.
Obrazki wygenerowane w AI są już na każdym rogu, ale to dopiero początek tego, co będzie się działo. Póki co, aby efektywnie korzystać z większości generatorów konieczne jest nieco wiedzy i wykupienie osobnej subskrybcji, co mimo wszystko ogranicza grono użytkowników. Już niedługo się to jednak zmieni. Podczas konferencji Adobe Max, przy okazji zapowiedzi aktualizacji modelu Firefly, producent Photoshopa i Lightrooma ogłosił, że już niedługo z najbardziej popularnych generatorów obrazu będziemy mogli korzystać bezpośrednio w aplikacjach Creative Cloud. A że dziś to podstawowe narzędzia większości twórców, w niedługim czasie treści wygenerowane przez AI dosłownie zaleją wasze feedy.
„Od teraz, oprócz naszych autorskich modeli Firefly, które zapewniają bezpieczeństwo komercyjne i poszanowanie praw autorskich w produkcji, możesz wybierać spośród szerokiej gamy specjalistycznych modeli od innych dostawców. Na początek oferujemy modele Google Imagen3 i Veo2, generowanie obrazów przez OpenAI GPT oraz Flux 1.1 Pro od Black Forest Labs. Pracujemy również nad integracją kolejnych modeli, takich jak fal.ai, Runway, Pika, Luma oraz Ideogram, które pojawią się w naszych produktach w nadchodzących miesiącach.” - czytamy w oficjalnym komunikacie Adobe.
„Modele te będą bezpośrednio dostępne w naszych aplikacjach kreatywnych, począwszy od Firefly. Jeśli zdecydujesz się korzystać z modeli innych dostawców, przełączanie się między nimi będzie płynne, a my zawsze jasno poinformujemy, z jakiego modelu korzystasz. Wszystkie treści generowane przez AI będą posiadały załączone „Content Credentials”, co zapewni przejrzystość i zaufanie. Bez względu na wybrany model, zawsze łatwo sprawdzisz, czy treść została wygenerowana przez Firefly, czy przez model spoza Adobe.” -dodaje producent.
Oficjalnie swoją decyzję producent tłumaczy chęcią udostępnienia użytkonwikom jak największej elastyczności, pisząc, że „każdy model generatywny AI oferuje unikalną estetykę, dlatego chcemy dać użytkownikom większy wybór i elastyczność, zwłaszcza na etapie koncepcyjnym, aby mogli dobrać właściwy model do specyficznych potrzeb projektowych.”. W praktyce ruch ten podyktowany jest zapewne faktem, że autorski model Adobe (Firefly) ciągle zostaje nieco w tyle za konkurencja. Dlatego też zamiast biernie obserwować, jak u boku rośnie mu konkurencja (tak, jak to było z Canvą), producent postanowił z nią współpracować.
Jakie będą tego rezultaty, wspomniałem na początku. Warto natomiast podkreślić, że tą prostą decyzją Adobe może wysunąć się na prowadzenie w wyścigu generatorów AI. Pakiet Creative Cloud jako jedyny na rynku będzie bowiem pozwalał na szybkie i wygodne porównanie efektów możliwych do uzyskania w danej sytuacji przy wykorzystaniu różnych modeli. Do tego, wygenerowane materiały błyskawicznie zintegrujemy z projektami, nad którymi aktualnie pracujemy. W tej sytuacji mało kto będzie zapewne chciał powrócić do walki z nie zawsze intuicyjną obsługą poszczególnych zewnętrznych modeli.
Co ważne, modele dostępne w ramach aplikacji Adobe mają być bezpieczne do wykorzystania pod kątem komercyjnym, a wiec teoretycznie nie trenowane na obrazach objętych prawami autorskimi.
Jak czytamy w komunikacie producenta, modele Chat GPT, Google Imagen, Neo 2 i Flex 1.1 Pro są już dostępne w platformie Firefly. Na przestrzeni kilku kolejnych miesięcy funkcja ta powinna zacząć także trafiać do poszczególnych aplikacji z pakietu Creative Cloud - na początek zapewne do Photoshopa, Ilustratora i Adobe Premiere.
Źródło: blog.adobe.com.