Brew #20: Agresywny EU AI Act. Njusy z Google Cloud Next. Szpilka w AI Pin. Niestabilne Stability.
Wuuu, świateleona.
Jak Unia Europejska zobaczy, że można, to się martwię, co z tego wyjdzie, tak?
Także zobaczymy.
Więc chyba jednak będzie mały flop.
W zasadzie planuję rosnąć i żeby rosnąć, to musi się pozbyć ludzi.
Krwawią pieniędzmi.
Kończy się kasa.
Tam był taki moment, gdzie wypadło publiczność, stwierdzenie, że nie zawracają kasy, a mają kasę na to, żeby opłacić rachunek cloudowy. 7% obrotu takiego giganta, jakim jest Apple, Google, Microsoft, no to jest trochę.
Umówmy się.
Musimy wymyśleć jakiś skrót, taki jest taki skrót.
MAMIL, nie wiem, czy kojarzycie.
MAMIL.
MAMIL.
Middle Age Men in Lycra, no, żyjących na rowerach.
Musi być jakiś Middle Age Men in Brew albo coś takiego.
Tomek, Sebastian i Wojtek.
U nas nie pada jak w Dubaju.
Dzisiaj w Dubaju, w której popadało, nam nic nie cieknie na głowę.
Za to wyciekły nam gdzieś z boku, znaczy zginęły e-maile wasze, jeżeli byście zapisywani, więc jeżeli nie macie naszych powiadomień, to wejdźcie na www.ctomodelling.coffee i tam zapiszczy się, mamy nową stronę, nową basę danych, wszystko jest nowe.
Działa w kontenerze, więc jesteśmy up to date, jeżeli chodzi o technologię.
Jak to kolega powiedział, uruchomiłem kontener z naszym nowym sajtem, to jestem teraz DevOps Inżynierem.
Och.
I skaluje się do petascale, petascale.
Tak, skala jest straszna, nie będziemy ten, ale tak, jeżeli chcecie dostać od nas czasami powiadomienie, że coś nowego robimy albo jakieś tam nasze przemyślenia, to www.ctomodelling.coffee, adres pojawi się na dole, wejdźcie, zapiszcie się, będziemy wdzięczni, nie będziemy nadużywać.
Dwa tygodnie minęły, coś tam pewnie się znalazło...
Sebastian, masz unikorna, ale to chyba potem, ale na początek, co tam ciekawego wygrzebałeś w internetach?
Mam dużo geekowskich takich drobiazgów, ale to tylko jedno powiem.
Moja ulubiona aplikacja, jedna z moich ulubionych aplikacji, czyli AirChat, doczekała się zupełnie nowej odsłony.
Dlaczego moja ulubiona aplikacja?
W ogóle mnie interesują, nawet nie to rozsiedli społecznościowe, interesują mnie aplikacje do komunikacji.
AirChat próbuje trochę wynaleźć komunikację, uczynić ją bardziej bezpośrednią.
Ta komunikacja głosowa jest defaultem, mnie w ogóle fascynują np. xSpaces, na których robimy coffee, fascynował mnie swego czasu Clubhouse, uważam, że to jest ciekawy krok w kierunku asynchronicznej albo synchronicznej komunikacji głosowej z minimalnym progiem wejścia, dlatego AirChat jest dla mnie ciekawy.
Dlaczego o tym zdecydowałem się dzisiaj powiedzieć?
Dlatego, że przez trzy miesiące przebudowywali AirChat, a on cały czas jest dostępny tylko i wyłącznie w jakiejś tam, dla ograniczonej grupy osób, które zdążyły się zarejestrować, czy jeszcze tam nie można się rejestrować, na zasadzie free for all, natomiast to, co jest ciekawe, to jest, ja mam takie wrażenie, że aplikacja zaczęła się od takiego najbardziej awangardowego podejścia, spróbujmy to wynaleźć zupełnie od zera, i teraz każda kolejna odsłona to jest mimo wszystko wycofanie w kierunku mainstreamu.
I teraz ja, kiedy odpaliłem nowego AirChata, to miałem takie wrażenie, że widzę trochę Twittera, trochę Fredsy, tylko właśnie z tym podejściem voice first i bardzo dobrą audiotranskrypcją.
Na chwilę obecną to jest w ogóle fajna okazja, żeby pogadać z ciekawymi ludźmi, dlatego, że tam są zaproszeni właśnie w ramach tego limited preview, takie osoby jak Naval Ravikant, który jest founderem, jak Elad Gil, jest tam w ogóle sporo właśnie osób, które są, można powiedzieć, w pewnym sensie influencerami z Krzymowej Dolinie, więc jest unikalna okazja, żeby w niewielkim gronie sobie z takimi osobami właśnie porozmawiać, z czego korzystam, do czego zachęcam.
Natomiast, znaczy, ja trochę trzam kciuki, bo jestem ciekawy, czy uda im się rozwiązać takie problemy, które obiecują, że będą rozwiązywać, jeżeli chodzi właśnie o taką komunikację bezpośrednią.
I tyle, no, polecam zapoznać się, polecam rzucić okiem na AirChata, ja osobiście cały czas trzam kciuki.
Kiedyś dałeś mi dostęp do AirChata i przyznam szczerze, że ja wtedy siadłem do niego i to, co powiedziałeś, że próbują wymyślić rzeczy od nowa, to odrzuciło mnie, to znaczy skomplikowanie ilości rzeczy, które próbowali mi powiedzieć, jak ja mam z tego skorzystać, nie, spowodowało, że po prostu nie dałem rady z tego korzystać.
Wiesz co, to jest bardzo ciekawe, to jest w ogóle pewnie temat na godzinną rozmowę, czyli na przykład, jeżeli ludzie ze sobą rozmawiają w jakiejś grupie, to czy oni ze sobą rozmawiają w wątkach, czy rozmawiają ze sobą w timelinie?
Ale wiesz co, nawet nie chodzi o to, tylko aplikacja po prostu zarzuciła mnie, powinieneś tutaj kliknąć, tam kliknąć, tu jest ten sposób i to jest tak całkiem nowe, że było trudno się, tak.
A teraz mnie odrzuci, dlatego że jak powiedziałeś, że jest update, nie, to każą mi się rejestrować od nowa i wypełniać profil i tak dalej, nie, i powiedziałem, okej, dobra, zostawię to na później, ale spoko, spróbuję.
Ale jeżeli wcześniej rejestrowałeś się z numerem telefonu, to teraz jak podasz numer telefonu, to będzie ten sam profil chyba.
Dobrze, spróbuję, to było interesujące na pewno, zajrzałem tam, właśnie przyjrzałem Nawala i innych, nie, i to było interesujące, ale mało korzystałem, bo ten interfejs mnie zabijał, przyznaję się szczerze, był inny.
Ja mam dwie takie rzeczy.
Pierwsza to jest faktycznie z takich nowinek, które mnie zaskoczyły bardzo mocno w ostatnich tygodniach, to jest nowy model Adobe Firefly i muszę powiedzieć, że Adobe tak dosyć cichy, jak mówimy o AI, rzadko mówimy o Adobe, prawda, jednak ten już jest od roku dodatek do Photoshopa, jeżeli chodzi o Generative AI, no i teraz wyszedł dodatek do Premiere Pro, czyli właśnie model Firefly, który potrafi, no właśnie, wycinać obiekty w czasie rzeczywistym, który potrafi dodawać obiekty w czasie rzeczywistym lub podmieniać elementy na klatkach wideo, więc efekty są naprawdę dobre, przynajmniej z tych dym, które udało mi się znaleźć, i muszę powiedzieć, że zrobiło to na mnie spore wrażenie.
Produkcja teraz wideo będzie jeszcze ciekawsza i jeszcze łatwiejsza, no i też oczywiście jestem ciekawy, jak nieraz rozmawialiśmy, produkcja fake newsów też będzie dosyć łatwiejsza niż dotychczas.
Tomek, chyba chciałeś coś komentować.
Chciałem skomentować, bo ja tu, wiesz, ustawiam się w wygodnej roli chóru greckiego, to jest naprawdę dobra rola, po co się wstawiali w ten chór grecki, bo to, tylko dodam, bo wczoraj na to zerknąłem, to nie jest tylko sam model Firefly, i to jest ciekawe, bo w Premiere Pro oni też pozwalają korzystać z innych modeli.
Tam się pojawia taki klocek pod tytułem OpenAI, i ten model Thora, tak, tam się pojawiają inne modele, i to jest tak, że po prostu oni pozwalają korzystać ze swojego, ale też z innych modeli.
Ciekawostka, którą widziałem, ale teraz, quote, quote, bo o tym będziemy mówić, widziałem tylko demo, że oni się tam chwalą, że będą informować, który model został użyty do wygenerowania tego w ramach plików, i na jakich materiałach został zrobiony, i taki faktycznie dobry feature, który tam zauważyłem taki dla mnie jako laika, to było to, że...
I to było chyba przykład użycia Sory akurat, że była klatka, i było dociągnięcie, potrzebuję 3 sekundy dalej, i to generowało te 3 sekundy.
To było niezłe, nie?
Tak, tam o tym watermarkingu, o którym mówisz, to faktycznie Adobe nad tym pracuje, i no to jest ciekawe, bo jest to jedna z niewielu filmów, i wprost, że to jest potrzebne, i pracujemy nad tym już bezpośrednio.
Nie, nie jest...
Oddajmy uczciwość, to nie jest jedyne, a Google też coś takiego ma, kiedyś o tym rozmawialiśmy, tylko to jest tutaj mamy ten problem, że każdy pracuje nad swoim standardem, nie?
I dopóki coś nie wyjdzie z czymś, co będzie otwarte, i inni się zgodzą, no to będziemy mieli z tym problem.
Znaczy, wiesz, jak mówię, że niewiele, to Google faktycznie jest w tym gronie, zobaczymy, co z tego wyjdzie, ale jest wiele film, które wypuszczają modele do generowania wideo, no jednak, wiesz, no, wypuszczają modele do generowania wideo, nie przejmują się, czy będziesz w stanie rozpoznać zawartość, czy została wygenerowana przez sztuczną inteligencję, natomiast tak jak mówiliśmy chyba na predykcjach na ten rok, ja cały czas stwierdziłem, że to będzie rok wideo w AI, no i faktycznie jest kwiecień i mamy naprawdę już niezłe rezultaty.
Drugi snag, tutaj poszedłem, chyba zrobię echo, ale warto, bo Sebastian w którymś z poprzednich odcinków wspominał nową książkę Larsona, Engineering Executive Primer, przeszedłem przez nią i muszę powiedzieć, że no, warto, to faktycznie jest chyba najlepszy Larson dotychczas.
Jest to książka, że jeżeli ktoś sięga po stanowisko właśnie takie, powiedzmy, senior engineering leadership, to warto, jest wyłożone bardzo jasno, wprost, na co trzeba zwracać uwagę i jak zwracać na to uwagę i dokładnie tak naprawdę cała rola jest opisana.
Jedyne może do czego bym się mógł przyczepić, ja wiem, że to była zaleta dla Sebastiana, dla mnie trochę brakuje np. alternatyw w niektórych podejściach albo np. odniesienia do jakichś prac naukowych, że słuchajcie, to jest jedno moje podejście, które ja polecam, sprawdziło się na x procentach, wiecie, executives, których znam, inne znajdziecie w tych opracowaniach.
Jedyne, co mogę powiedzieć, czego mi zabrakło, ale tak to, to dwoma rękami podpisuje się, że naprawdę świetna książka.
Ale to faktycznie zaleta, bo właśnie wszystkie jego książki to mają do siebie to, że on pisze po prostu, tak robiliśmy w Uberze.
W tym momencie nie masz takiej wątpliwości, że kurde, czy to on naprawdę tak kocopały z jakiegoś podejścia teoretycznego, wziął Scrum Guide'a i go...
Nie, bo wiesz, nie chodzi mi o rzeczy takie, wiesz, kontrowersyjne, czy zbyt miękkie.
Chodziło mi bardziej, wiesz, na wiele rzeczy, które on opisywał, są różne podejścia.
I np. takie, żeby odnośnik idolny, alternatyw.
Ale wiesz co, ja pamiętam właśnie, jak Sebastian mówił o książce i właśnie on wtedy to podkreślał, a ja jeszcze nie czytałem, że to jest zaleta tej książki dla niego, że ten koleś właśnie nie wdaje w to, co powiedziałeś, tylko mówi, to u mnie działało, może są inne sposoby, ale ja ich nie umiem.
Koniec.
Trochę tak.
Czyli wszyscy mówcie o swoim, nie o ludzkim.
Ja tylko jeszcze trochę cofnę się do tego tematu copyrights i tak dalej.
Sięgniemy teraz do umysłu ludzi, którzy nas słuchają, oglądają i tak dalej, bo patrzcie, wszyscy mówią o nowych modelach i tak dalej, a jest ten problem za milion dolarów pewnie, albo miliard watermarkingu, identity, i nikt nie słyszał o żadnym startupie, który to robi, więc może wyjdą, którzy nie wyjdą, jak ktoś zna, to niech to znać.
Stąp, stąp, tuż, no Hugging Face to jest naprawdę stały temat, ostatnio był tam chyba blok tygodnia, to był Hugging Face, to był właśnie odnoszę do watermarkingu.
Gdzie już, gdzie?
O, tu jest mój bąbelek.
Dobra, ja na szybko tylko rzeczy ze świata, taki...
Teraz powinniśmy mieć taki headline.
Wuuu, świata Leona.
Czyli generalnie...
Kącik lana.
Tak, kącik lana Tesla, 10% ludzi z teczki zostało zwolnionych albo zostanie, worldwide, nie, czyli Tesla powiedziała, pierwszy raz robi duży layoffs, 15 tysięcy ludzi.
Dlaczego warto to odnotować?
No dlatego, że jednak Tesla to duża firma.
Drugie, tam jest ciekawe, bo Elon oczywiście napisał swój list i tam jest wspomniane, że w zasadzie planuje rosnąć i żeby rosnąć to musi się pozbyć ludzi.
Czyli tak jakby w drugą stronę, ale też z drugiej strony, bo to jest tuż przed wynikami i wszyscy się spodziewają, że te wyniki będą gorsze i to jest trochę przygotowanie do tego, że żeby giełda lepiej odniosła to, że one są gorsze.
Dlaczego, według mnie, też warto na to zwrócić uwagę, to nawiązuje do naszego poprzedniej rozmowy.
Konkurencja pomiędzy tymi producentami chińskimi, Elonem i resztą, ona będzie coraz bardziej zacięta i po prostu Elon to też ładnie nazwał, Elon kliknął like pod tym tweetem, że Elon będzie wartime CEO, czyli że nie jesteśmy tutaj już miłym, przyszłym człowiekiem i tak dalej, ale po prostu w tej chwili jedyne co chodzi to o to, żeby wygrać tę bitwę.
Swoją drogą, to też o tym rozmawialiśmy, a ja po prostu mam znajomych, którzy siedzą w Tesla Wall i to jak szybko oni wypuszczają nowy software i jak dużo oni wrzucają w ten software, to według mnie oni orzą w tej chwili konkurencję z softwarem i tutaj przed, w kuluarach rozmawialiśmy, ten software ma też swoje double-edged sword, jedna z osób w Polsce została walnięta po łapkach, że nie trzyma kierownicy przez autopilota, więc Tesla wyłączyła jej autopilota.
No i to jest chyba przyszłość tych samochodów i w ogóle kontroli softu przez producentów.
Ja dodam, że chyba warto już powoli szykować materiał na ten odcinek, ale z mojej strony pytanie, czy nie idziemy w kierunku scoringu kierowców, a od scoringu kierowców do scoringu innych części naszego życia, to będzie bardzo ciekawe, a na pewno słuchaj, ja tylko dodam, jak Unia Europejska zobaczy, że można, to się martwię, co z tego wyjdzie, tak, że zobaczymy.
Dobra, to ja nie siedzę w tym głęboko, ale niektóre rzeczy gdzieś tam z ludźmi rozmawiałem, scoring kierowców odbywa się już w tej chwili, ja kiedyś byłem posiadaczem samochodu pewnej marki i jak oddawałem im swój kluczyk, to oni ściągali swoje rzeczy i oni robili mój scoring, tak czy inaczej, tego kluczyka, nie, i oni mieli mój profil kierowcy i tak dalej.
Z innej ręki wiem, że pewna popularna aplikacja do namierzania różnych rzeczy na drodze w Polsce, po prostu ich biznes model polega na tym, że opychają te dane ubezpieczycielom, którzy robią scoring kierowców i możesz dostać lepsze dane, jeżeli powiesz, zgadzam się na pociągnięcie danych z tej aplikacji i dostajesz inne ubezpieczenie, więc to już się dzieje, tylko Tesla znowu trzyma cały value chain, ma samochód, ma software, ma dane, ma ubezpieczenie i tak dalej, nie, ale też ma odpowiedzialność za kogoś, kto nie trzyma kierownicy na końcu.
No właśnie, no właśnie, bo to jest zbudowanie tych samych mechanizmów, które są w Platformy Economics, czyli w Platformy Economics na początku było tak, że dostawca Platformy daje jakieś rozwiązanie, no i teraz skorzystają z tego ludzie i teoretycznie nie bierzesz odpowiedzialności, no i okazało się, że to nie działa, bo potem były problemy z tak zwaną odpowiedzialnością społeczną, były problemy z tym contentem, który się dzieje i tak dalej.
I tu mam dokładnie tą samą sytuację, że taka Tesla daje narzędzia, narzędziem jest na przykład autopilot, natomiast autopilot, jeżeli będzie wykorzystywany w zły sposób, może kogoś zabić, w związku z tym to Tesla bierze gdzieś tam poczęściej, wiadomo, to prawo jeszcze nie jest doskonałe, ale gdzieś tam po części jest oskarżana, że to po prostu ten autopilot Tesla i zabija, a nie ludzie, więc w związku z tym Tesla musi stworzyć obronne mechanizmy, które wymuszają, że ludzie tego autopilota korzystają w właściwy sposób, no i to jest właśnie ten cały scoring, to monitorowanie, więc to jest niestety mechanizm, który sam zjada własny ogon, ale go pewnie nie unikniemy.
Nie unikniemy, nie unikniemy.
Zanim EA zacznie jeździć zamiast nas, to porozmawiajmy o Unii Europejskiej, pojawił się EA Act, mamy pierwsze praktyczne rzeczy.
Wojtek, Sebastian, kto chce zacząć?
Ja mogę zacząć, więc o tym już wspominaliśmy, czyli słynny EA Act, który przygotowała Unia Europejska, żeby regulować przyszłość sztucznej inteligencji i wpływu na społeczeństwo tak naprawdę przede wszystkim, gdzie rozwiązania wykorzystujące sztuczną inteligencję, to jest ważne, że to nie chodzi o model, budowanie modeli, tylko o rozwiązanie wykorzystujące sztuczną inteligencję, jeżeli chodzi o obywateli Unii Europejskiej, dzielimy na cztery kategorie, czyli nieakceptowalnego ryzyka, wysokiego, ograniczonego i niskiego ryzyka.
I teraz kwestia jest taka, że Unia Europejska mówi wprost, jeżeli chodzi o te niedopuszczalne, to to jest niedopuszczalne i kary są gigantyczne, czyli 35 milionów euro lub 7% obrotu globalnego, w zależności od tego, która liczba jest większa.
I co to, co na przykład zawiera ten nieakceptowalny ryzyko, czyli to na przykład stosowanie technik manipulacyjnych, podprogowych, jeżeli chodzi o podejmowanie decyzji lub na przykład wpływanie na obywateli Unii Europejskiej, wykorzystywanie informacji i podatności wynikających na przykład z wieku, niepełnosprawności, płci, pochodzenia i tak dalej, więc to wszystko jest jak najbardziej nieakceptowalne dla Unii Europejskiej, wykorzystywanie danych biometrycznych do kategoryzowania osób ze względu na ich poglądy polityczne, płeć, pochodzenie i tak dalej, oraz tworzyć bazę danych do rozpoznawania naszych danych biometrycznych bez tak naprawdę specjalnych pozwoleń.
Więc to jest nieakceptowalne, za to mamy te gigantyczne kary, więc to może być ciekawe, no i mamy te pozostałe kategorie, tutaj możemy za chwileczkę porozmawiać, na co to wpływa.
Słuchajcie, więc to słowem wstępu, Sebastian może.
Znaczy, żeśmy rozmawiali swego czasu i tam rzeczywiście kto czego broni, to też w sumie żeśmy przechodzili.
Natomiast teraz jest dobry moment, żeby wrócić do tego tematu, a i właśnie dlaczego?
Dlatego, że minęło 20 dni od momentu przegłosowania tego i opublikowania, bo to jest ważne, opublikowania w official journal Komisji Europejskiej, Unii Europejskiej, w związku z tym zaczęły tykać liczniki.
I teraz, co to oznacza w praktyce, czyli czego się należy spodziewać i kiedy?
Ja mam tutaj rozpisany taki timeline, bardzo krótko go przejdę.
Po pierwsze, czyli licznik tyka, zaczął tykać w kwietniu.
Czego się spodziewać w ciągu 6 miesięcy, bo to jest już wymagane prawnie.
Po pierwsze, AI jest zakazane w tak zwanym systemach kategoryzacji biometrycznej.
W rozpoznawaniu emocji, na przykład w miejscu pracy do jakiegoś scoringu, w miejscu pracy czy w miejscu nauki, to też.
Zakazane są też systemy do tak zwanego social scoringu i to się nazywa, oni to nazwali, zachowań manipulacyjnych.
No to nie jest jakoś tam super, hiper-doprecyzowane.
To jest ta pierwsza kategoria, o której wspomniałem właśnie.
Tak.
I teraz chodzi o to, że w ciągu 6 miesięcy te rzeczy już są zakazane.
Czyli wtedy będą się mogły pojawić pierwsze pozwy, wtedy się będą mogły pojawić pierwsze ciekawe historie w publicznej przestrzeni.
Kolejny ciekawy temat, jeszcze mniej doprecyzowany, to jest to, co będzie za 9 miesięcy.
Bo za 9 miesięcy mają powstać teoretyczne codes of practice, czyli zbiory pewnego rodzaju przepisów dla prowiderów tak zwanego general purpose AI.
I one wtedy mają być gotowe, a będą wymuszane 3 miesiące później.
Czyli dopiero za 9 miesięcy możemy się spodziewać takich praktycznych zasad wykorzystywania tych general purpose AI.
I wtedy za rok tak naprawdę będzie bardzo ciekawe.
Dlatego, że za rok twórcy tych tak zwanych general purpose models będą musieli być transparentni względem tego, jak na przykład trenują modele.
Czyli każdy model będzie musiał być wyposażony w szczegóły odnośnie tego, na czym, w jaki sposób, jakimi algorytmami był trenowany.
I każdy AI-generated content będzie musiał być zaznaczony jako, że jest AI-generated i za pomocą jakiegoś modelu, żeby można było dojść do tego, w jaki sposób to rzeczywiście zostało zrobione.
Słuchajcie, za rok.
Czy jest realne?
No ciekawe.
To w kontekście tego troszeczkę naszego remarkowania, o którym mówiliśmy za chwilę, a nie będę mówił całego timeline, a powiem jeszcze o jednej rzeczy, co za 2 lata, bo za 2 lata też będzie ciekawie, bo też sobie nie do końca tego wyobrażam.
Za 2 lata wszystkie tak zwane modele high-risk będą musiały być zarejestrowane.
One będą miały jeszcze bardziej restrykcyjne regulacje, jeżeli chodzi o nie.
No i co są modele high-risk?
No to są te, które wykonują decyzje czy podejmują decyzje, na podstawie których na przykład ktoś przyjmowany jest do pracy, jakieś stanowisko jest udzielane, albo ktoś przyjmowany jest do jakiejś szkoły.
Decyzje ubezpieczeniowe, decyzje kredytowe, już wszystkie rzeczy związane z regulacją prawnej, dokładnie tak.
Co więcej, te wszystkie kraje, członkowskie unii, tak zwane member state, będą musiały mieć już swoje tam regulatory sandboxes i będą musiały mieć zaimplementowane prawnie, czyli w kontekście prawnym, reguły, jeżeli chodzi o karanie, żeby to było efektywne, a nie tylko teoretyczne.
Słuchajcie, brzmi trochę jak mrzonka, to jest mimo wszystko dosyć agresywny timeline, że chcę to zobaczyć w praktyce, tylko boję się, czy to nie będzie robione na chybcika i nie wylejemy znowu dziecka z kąpielą.
No cóż, to ja tu wejdę w rolę krytyka, albo takie...
Znaczy, nie było też innej roli, ale...
Znaczy tak, pierwsze, jak ty powiedziałaś, to Unia Europejska wie, kiedy będziemy mieli AGI szybciej niż pewnie AGI, nie?
Bo już je chce wyregulować trochę.
Ale chciałbym wiedzieć, czy to będzie dotyczyć też agencji różnych, tam trzyliterowych i tak dalej, albo nawet takich prostych rzeczy, że na przykład software do analizy zachowań jest używany na lotniskach, żeby wyśledzić, kto tam się źle porusza po lotnisku i tak dalej, czyli czy to będzie działało wstecz i jaka jest definicja AGI, nie?
Będzie działało wstecz, tak.
Na przykład algorytm, który...
Czyli taki typowy...
Każdy z nas kiedyś się bawił typowy...
To nie było nawet...
To nie jest nawet AGI, nie?
Ale usługi typu pokażę ci swoją twarz i ona mówi, czy się uśmiecham, czy nie, czyli sentyment, analizy i tak dalej, nie?
To też pod to podpada, czy nie?
Bo to generalnie jest zasadzone w tak wielu miejscach teraz.
We'll see.
Podpada, ale wiesz, na przykład to, co powiedziałeś...
Jeszcze tylko powiem, jak słuchałem Sebastian tej całej listy, to przyszło mi do głowy, bo ja już przeszedłem w życiu kilka takich wdrożeń, w szczególności na przykład GDPR, nie?
I po prostu widziałem, jak to się odbywa, nie?
Czyli każdy patrzył na tą regulację i mówił, to jaka definicja nam pozwoli nie robić tego wszystkiego, albo napiszmy nasz regulamin tak, żeby nas zabezpieczał przed potencjalną odpowiedzialnością?
Więc ja się trochę boję, że skończy się na kolejnym Kuki Banner, nie?
Czyli wszyscy wymyślą sposób, który zabezpiecza ich tył, a czy w praktyce to coś zmieni?
Trochę będzie inaczej, bo w przypadku GDPR chyba był mniejszy incentyw, żeby kogoś pozwać.
A to chyba ten incentyw może być duży, bo będziesz pozywał dużego gracza o kwestie niekoniecznie indywidualne, ale o na przykład prawa dużej organizacji.
W przypadku GDPR tak nie było.
Dobrze, i teraz tutaj możemy chwilę porozmawiać, ja trochę wyciągnę taką rozmowę, która się w różnych podcastach po innej stronie Atlantyku toczy, albo Pacyfiku, zależy, w którą stronę patrzymy.
Czy te regulacje de facto nie zacymentują dużych graczy na rynku NAI, bo oni będą sobie mogli pozwolić na to, żeby być z nimi compliant, a mali gracze nie będą w stanie na rynku tak wyregulowanym działać?
Nie do końca się z tobą zgodzę, bo wiesz, na przykład jeżeli zobaczysz, to GDPR spowodował, że mamy dodatkowe zawody tak naprawdę wokół prywatności danych, więc spodziewam się, że tak naprawdę ta regulacja może stworzyć dodatkowe zawody i specjalizacje lub agencje na przykład doradcze, które pozwolą ci zrozumieć, w jakim obszarze się poruszasz i co potrzebujesz, tak?
Żeby także jakieś playbooki mieć też gotowe, więc paradoksalnie myślę, że to, wiesz, jest do zrobienia.
Ja mam krytyczne zdanie o wdrożeniu GDPR przynajmniej na rynku polskim, więc...
Jasne, tutaj dużo zależy od lokalnych praw, natomiast myślę, że ten, tak jak Sebastian mówi, ten miecz jest naprawdę ciężki, to jest słuchajcie, 7% obrotu takiego giganta, jakim jest Apple, Google, Microsoft, no to jest trochę.
No dobra, to mieliśmy takie firmy, mieliśmy takie firmy jak Antropik, które długo nie wchodziły na rynek EU, nie?
Na przykład, nie?
I teraz według Was to będzie...
No, ale czy to spowoduje, że będziemy mieli od nich lepszy produkt, czy to spowoduje, że one jeszcze mniej chętnie będą tu wchodzić, czy to generalnie nie postawi Europy na takim, na przygranej pozycji, jeżeli chodzi o adopcję, użycie, produkcję, mechanizm dookoła, jaj?
Ja nie mówię, że w ogóle...
Znaczy, czekaj, ja nie mówię, że nie zgadzam się z zasadą typu social scoring i tak dalej, nie?
Te rzeczy są dobrze, ten...
Ciekawe, czy firmy o tym słyszały, ale...
No właśnie, pytanie, jaki to będzie miało wpływ na...
Bo i tak, stalmy, Europa nie jest na początku tego wyścigu.
Znaczy, wiesz, to jest tak naprawdę pytanie fundamentalne, czy pozwalamy na dziki zachód sztucznej inteligencji, gdzie naprawdę już widzimy, że jesteśmy na początku tego wyścigu, jak duży może to mieć wpływ na społeczeństwo, czy idziemy w kierunku regulacji?
Ja bym powiedział, że wcale Europa nie jest na początku wyścigu regulowania, bo Chiny są obregulowane pod tym kątem...
A ja mówię o wyścigu dookoła technologii, a nie regulowania.
W regulowaniu jesteśmy okej.
Bo ja bym powiedział, że my dopiero, wiesz, próbujemy nadgonić to, co Chiny wprowadziły, więc myślę, że to w ogóle dobry też temat zaparkowania właśnie, jak wygląda regulacja tego typu obszarów w różnych krajach na świecie.
Myślę, że skończy się trochę jak z GDPR-em.
Czyli największym, najbardziej widocznym objawem GDPR-a to są te kółki consent, które tak wkurzają ludzi i wyskakują non-stop.
To będzie dokładnie to samo.
Czy pojawią się standardowe oznaczenia, czyli na przykład każda piosenka wygenerowana przez Gen AI, każdy obrazek wygenerowany przez Gen AI, to będzie miał w ogóle visual cue, tak naprawdę jakiś znaczek, czy będzie jasno widoczny, i jeszcze gdzieś tam pewnie pojawią się jakieś zgody.
Zgadzasz się na przykład na wzięcie udziału, na wykonanie tej funkcjonalności na twoich danych, a przy tym ta funkcjonalność korzysta na przykład z korzyści Gen AI, więc ten internet będzie jeszcze bardziej upierdliwy.
Korzystanie z niego będzie jeszcze bardziej denerwujące, ale myślę, że to rzeczywiście w tym kierunku pójdzie, bo to leży w interesie tych, którzy chcą zabezpieczyć, jako twórcy kontentu, jako dostawcy danych, swoje interesy, i myślę, że to lobby może wygrać.
Tak, ty już wiesz, jeżeli taka się stanie rzeczywistością, to przynajmniej będziesz rozumiał, kto jest dostawcą modelu, który cię ocenia jako pracownika, tak, więc przynajmniej tyle.
I tutaj ja tylko wejdę z taką historią, z taką nauką ścisłą, która nazywa się analogia i per-analogia, to spowoduje taki sam ruch, jak GDPR spowodował, jeżeli chodzi o chmurę, to znaczy, okej, ja mam doświadczenie na rynku Enterprise.
Na rynku Enterprise to skonsoliduje dostawców.
Dlaczego?
Bo będzie tylko kilku dostawców, którzy będą dawali glejt, oczywiście ten glejt jest z gwiazdkami i tak dalej, że słuchaj, jeżeli będziesz u nas korzystał z tego AI, to załatwisz ilość tych regulatory requirements, my będziemy je dla ciebie robić.
Więc taki AWS, Amazon, Azure, GCP, Hugging Face, cokolwiek, oni będą, pójdą w tamtą samą stronę, bo jak w tej chwili chcesz odhaczyć ileś checkboxów dookoła GDPR, to jak korzystasz z chmury, to oni ci mówią, te checkboxy masz odhaczone, nie?
Więc to jest też ciekawe, czy to nie spowoduje dokładnie takiego ruchu w tych okolicach.
Przy czym, gwiazdka, rozmawiamy o produktach już, prawda, czyli gotowych produktach, a nie modelach, czyli praca na terenie Unii Europejskiej nad różnymi modelami jak najbardziej będzie możliwa, tylko produktyzacja będzie troszeczkę bardziej obwarowana regulacją.
Ale właśnie to było moje pytanie, nie, czy w tym otoczeniu regulacyjnym firmy będą chciały pracować nad tym w Europie, czy jednak wybiorą gdzieś, gdzie to otoczenie regulacyjne jest o wiele prostsze, nie rzuca im takich rzeczy, nie?
Jasne.
Dobrze, jak jesteśmy przy AI, chmurach i tak dalej, jest pewna firma, która nawet wystosowała do nas notkę pod tytułem dlaczego o nich nie mówimy.
Kolejny.
Która też wystosowała taki lame joke.
Google miał konferencję, mówiliśmy o konferencjach AWS-a, mówiliśmy o konferencjach Microsoftu, mówiliśmy o konferencjach OpenAI, GitHuba, czas na Google'a.
Wojtek obejrzał wszystkie nagrania z Google Next, żebyście wy nie musieli ich oglądać.
Nie dałem rady.
Zostaniecie w tej chwili, Wojtek zrobi nam skrót Google Next, o który nie prosiliśmy i nic nie robiliśmy.
Lecimy.
Słuchajcie, no to faktycznie o chmurze Google mówimy tutaj stosunkowo chyba najmniej z reguły, a faktycznie to było wielkie święto Google Cloud, czyli Google Cloud Next 2024.
Jeżeli wejdziecie na oficjalną stronę, to jest aż 218 punktów produktów Customer Stories, które zostało tam jakiekolwiek wspomnianych w tych ich wystąpieniach, więc jest ogromna masa materiału.
Od razu disclaimer, część to są odgrzewane kotlety, tak, czyli część to są ogłoszenia, powtórka ogłoszeń z produktów, które zostały przedstawione przez ostatnie tam pół roku do roku.
Najważniejsze rzeczy, czyli tak naprawdę jak zmienia się sam Google Cloud.
No, Google Cloud to jest teraz AI-based tool według Google'a, czyli pierwsza rzecz, no to wchodzi nam Gemini for Google Cloud, czyli tak naprawdę AI Assistant dla wszelkich programistów, sysopsów i tak dalej.
Code Assist, do którego zaraz wrócę, bo to jest tak naprawdę rękawica rzucona, powiedzmy, do kopajlota.
Cloud Assist, czyli właśnie cała sztuczna inteligencja, która wspomaga pracę wszystkich osób, które pracują nad infrastrukturą.
Security Operations, myślę, że to będzie ciekawy produkt, tak, czyli wykorzystanie sztucznej inteligencji do analizy naszej konfiguracji, naszej infrastruktury w celu szybszej identyfikacji potencjalnych dziur, jak i tak naprawdę pomocy załataniem istniejących dziur.
A Gemini w BigQuery, to było coś dla mnie ciekawego, więc chciałbym zobaczyć, ja byłem na demach kilku BigQuery, czy tam technologii związanych z BigQuery i to jest z reguły tak, że te dema są świetnie przygotowane, chciałbym to zobaczyć w praktyce.
Czyli oczywiście BigQuery to jest rozwiązanie Big Data od Google Cloud'a do ogromnych zbiorów danych, no i dostajemy Gemini, który jest w stanie nam nie tylko pomóc w analizowaniu, wpisaniu dużo lepszych zapytań do BigQuery, ale także później podsumowywaniu, wizualizacjach tych danych, więc to jest takie ciekawe, powiedzmy, analiza na sterydach.
To samo w Lookerze, chociaż nie jestem fanem produktu Lookera, i Databases, czyli tak naprawdę wspomaganie nas, jeżeli chodzi o analizę baz danych.
I teraz kilka takich highlightów, jeżeli chodzi, no to właśnie ten Code Assist, to jest ciekawe, ja spróbuję, ja go jeszcze nie mam w swoim, przynajmniej tym Gemini opłacanym, więc spróbuję, jak tylko będę go mieć, porównać go sobie do, jak pamiętacie, zarówno lokalnie próbowałem kilka modeli, jak i copilota, tak samo od JetBrains'ów, więc zobaczę, jak on się ma.
Google w porównaniu do pozostałych firm oficjalnie podpisał współpracę ze Stack Overflow, Datadogiem, Datastaxem, Elastikiem, HashiCorpem i kilkoma innymi, po to, żeby tak naprawdę całą ich bazę wiedzy móc komercyjnie serwować w swoim modelu, więc to może być bardzo ciekawe.
Z takich jeszcze kilku może highlightów, to jest Google Video, czy Google Widz tak naprawdę to się nazywa, czyli narzędzie do tworzenia, do tworzenia całych wideo, tak, czyli możemy na przykład taki w przyszłości według Google'a taki film, który teraz tworzymy, napisać sobie skrypt razem z pomocą AI, podłożyć nasze zdjęcia, podłożyć nasze głosy i w przyszłości istnieje szansa, że my będziemy w tym czasie pili słuchawkami drinki na proszę, a wideo będzie dla nas generowane, dokładnie.
I jeszcze kilka takich szybciutko rzeczy, ImageGen 2, czyli to był troszeczkę odkrzewany kotlet, bo ten model już został pokazany.
Coś dla Sebastiana, czyli Vertex AI, czyli środowisko do tworzenia agentów, które współpracuje z bardzo różnymi modelami, nie tylko od Google'a, więc to jest taka ciekawa rzecz.
No i kilka takich ogłoszeń jeszcze dodatkowych, czyli NVIDIA Blackwell Platform już jest, już zawitała do Google Cloud'a, Axiom, czyli ten procesor pierwszy armowy od Google'a, o którym rozmawialiśmy, też już oficjalnie został potwierdzony, Chrome Enterprise jako produkt i chyba taka ostatnia rzecz, no to Google Workspace, też kilka takich ogłoszeń było, że właśnie Gemini wchodzi bardzo mocno.
I tak naprawdę, jak pamiętacie, rok temu Copilot wszedł do Office 365 i ja na to patrzę tak, że właśnie w tym momencie Google próbuje nadrobić zaległości, co prawda rok później, ale trzymam kciuki.
Kto tam w Kubernetesie?
W Kubernetesie, powiem Ci, że chyba on został tak przykryty się bardzo mocno pozostałymi rzeczami.
AI dla kibernetysa, tak.
Dobrze, taki szybki komentarz na podstawie tylko tego, co słyszałem, bo swoją drogą widziałem tylko znajomych, którzy tam pojechali, no jakaś większa polska delegacja też tam była i wszyscy zrobili fotki właśnie z jakimiś tam dźwiękami i tak dalej, ale z tego, co mówiłeś, to taki szybki komentarz, przynajmniej dla mnie, w porównaniu do...
To tak słyszę, że Google robi catch-up do Microsoftu w tej części, ponieważ oni też mają Workspace i tak dalej, i tak dalej.
To wszystko, co powiedziałaś, jak ja siedzę bardziej po stronie Microsoftu na co dzień, to to są rzeczy, po prostu robią, dociągają do poziomu, którego Enterprise oczekuje od nich.
Ten Security Assistant jest ciekawy, nie wiem, czy pamiętacie albo wiecie, oni kiedyś kupili Maintenance, taką firmę security i oni mieli...
Tak, oni jakiś czas temu kupili firmę taką typowo security i jak Microsoft zaczął wypuszczać Sentinela i tam dużo takiego contentu analitycznego pod kątem security, to Google też wypuścił taki produkt, w którym mogłeś robić sobie query odnośnie twoich logów, takie rzeczy, nie?
Więc oni to gdzieś mieli, teraz robią, krótko mówiąc, wiesz, Microsoft ma Security Copilot, no to Google ma to, nie?
Może być.
Nie pamiętam, kiedyś o tym też pisałem, ale mógłbym to wygrzebać, wiesz, mówisz, Microsoft ma Copilot, mamy to.
Microsoft ma GitHub Copilot, mamy to.
Ciekawy jest ten ruch, o którym powiedziałaś, że zlicencyjowali content od, tak naprawdę, wiedzy od tych kilku providerów, ja tego nie wiedziałem i to jest ciekawe, bo to może faktycznie usunąć jakieś problemy takie adopcyjne pod tytułem, co to robi i tak dalej, skąd ma te dane i ten, zobaczymy, jak będzie.
Jeszcze dodam do tego Google Code Assist, można oczywiście fine-tunować na własnej bazie kodu, bo to jest to samo, co GitHub Enterprise.
Trochę bardziej taki anegdotyczny komentarz, ale jak powiedziałeś o tym, że moglibyśmy wygenerować takie wideo, nie?
To by było dobre, jakby każdy z nas wziął jeden model, każdy inny model, tu Gemini, tutaj, wiesz, chat GPT i tak dalej, i po prostu byśmy je napuścili, żeby zrobili komentarz zamiast nas.
To była ciekawa rozmowa.
Sebastianie, czy uważasz, że słońce wschodu świeci dzisiaj jaśniej i ciemniej i jak swoje samopoczucie z tego powodu?
Nie czuj się urażony, będąc słońcem, jest wszystko okej.
Tak.
Sebastian, twoje przemyślenia.
To ja nie będę powtarzał, też czas nas goni, natomiast dla mnie najciekawsze jest to, że oni tak mocno podkreślają tą inwestycję w Gen AI.
Gen AI jest wszędzie, ale poszło bardzo dużo pieniędzy i nie oszukujmy się, to się musi zwrócić, więc będą cisnęli to bardzo mocno.
Wiele osób sobie zadaje pytanie, co oni widzą, czego może wszyscy inni nie widzą, bo my jeszcze nie tak dawno, żeśmy o tym rozmawiali, że Gen AI to będzie taka...
Okej, znowu jakiś kolejny rodzaj aplikacji albo kolejny rodzaj interakcji z aplikacjami albo będzie działał w jakichś specyficznych case'ach, natomiast mam wrażenie, że teraz Gen AI przychodzi jako taka warstwa on the top i będzie po prostu warstwą interfejsu użytkownika.
Że ludzie się mocno rozczarowali tym, że okej, są halucynacje, więc nie można polegać na Gen AI jako na źródle danych, nawet przetworzonych danych, ale jest całkiem niezłe, jeżeli chodzi o takie stworzenie mechanizmu, które coś z danymi robi, jakoś je tam przetwarza i dostarcza je w sposób przyjazdu użytkownikowi.
Tak samo otrzymuje fazy instrukcje, które są niezbyt precyzyjne, niezakodowane, tylko wyrażne w języku naturalnym i rzeczywiście zwyczajnie wyciąga z tego całkiem sensowny efekt.
Wydaje się, że to jest ten paradygmat, który został przyjęty przez duże firmy, również z Googlem, i to widać wszędzie.
I teraz jak sobie pomyślę o tym, że to się będzie musiało opłacić, to mnie trochę przeraża.
I może jeszcze inny wniosek, który był ciekawy, tak mi się wydaje, to jest to, że oni tam wypuścili kolejny model Gemini 1.5 Pro. Mam wrażenie, że oni dosyć szybko te modele teraz literują.
I zaraz jestem ciekawy, czy to rzeczywiście jest tak, że oni wyparcowali u siebie takie capability, taki szybki rozwój tych modeli, i będziemy mieli do czynienia z takim tempem, bo jeżeli tak, to oni mają szansę, mimo tych wstępnych błędów, które popełnili i tam różnych śmiesznych rzeczy, o których już nie będziemy mówić, mają rzeczywiście szansę odjechać, no nie wiem, czy odjechać, ale na pewno stać się liderem, a być może nawet odjechać, a być może to jest tylko taki chwilowy trend, że chwilowo tak wyskoczyli jak Filip z kanapki i na tym się skończy.
Wiesz, ja myślę, że do tego, co tutaj mówisz, to wstąpiąc tylko komentarz, zwróćmy uwagę, że Google na pewno ma dostęp do największej bazy wideo.
Na najlepszej jakości, czyli YouTube, tak?
Inni już też ich skrapowali, po prostu ich wykorzystywali.
A dobra, okej, ale nie.
Na pewno mają do tego licencję.
Legalnie, tak, legalnie.
Okej, no i na końcu...
Więc mają licencję, ale mają ten same conditions na YouTubie.
Zawsze ciekawy jest też wątek odnośnie chipsetów, czyli właśnie, że to, że oni zaczynają wchodzić w tego arma, próbują się trochę uniezależniać chyba, chociaż akurat to im średnio wychodzi, no i to, że zabezpieczyli sobie też Bequela, czyli dobre układy z NVIDIĘ, no cóż, to jest myślenie o przyszłości.
Ja dwa komentarze słowem ojca tam chóru gryckiego, jedyne od końca, a może nie, od początku.
Sebastian, co w tym jest?
W tym jest, według mnie, dużo prostsze niż się może wydawać.
Microsoft jest konkurentem Google'a.
Kiedyś między nami robiliśmy takie porównanie, bo każdy ma swoje bąbele, jak wyszło nam, że ja mówiłem, że w moim bąbelku Google Cloud i Google Workspace wcale nie istnieje, wy mówiliście, że jest inaczej, nie wiem, czy pamiętacie, sprawdziliśmy, że jest 50-50, nie?
I teraz sprzedawcy Google'a nie mają, znaczy idą do tego i nie mają story dookoła AI.
Więc generalnie muszą mieć story dookoła Gen AI, żeby pchać ten Workspace i całą resztę do klientów, bo tutaj mówią, tu Microsoft ma Copilot, bla, bla, bla.
Microsoft zrobił duży bet, jest duży hype na rynku dookoła tego, zobaczymy w czerwcu, to będzie ciekawe, jak będą wyniki Microsoftu, zobaczymy, czy ten bet się w ogóle opłacił, na razie wygląda, że się opłacił im, dopóki hype jeszcze żyje, nie?
I krótko mówiąc z tego punktu widzenia tylko, Google od strony sprzedaży i tak dalej jest z tyłu, więc oni generalnie muszą dociągnąć te story, żeby konkurować na rynku, to jest moja prywatna opinia.
To co ja mówię, to jest po prostu ten bet jest już na takim poziomie, że już go nie można odpisać, statki spłonęły na plaży.
Tak, tak, to jest bet, z którego nie można odpisać, ale wiesz, z drugiej strony w tej chwili nawet jak się słucha komentarzy ludzi odnośnie rynku kapitałowego i tak dalej, to oni obstawiają, że Google to jest ta firma, która może jeszcze najwięcej na tym wzrosnąć, nie?
Dlaczego?
Bo jest z tyłu, nie?
I mówią, Google może jeszcze wszystkich zaskoczyć i wyskoczyć do przodu z waluacją i tak dalej, i tak dalej, bo ma jeszcze miejsce, nie?
A drugi komentarz odnośnie tej szybkości modeli, nie wiem, czy widzieliście takie wideo sama ostatnio, które powiedział, odpuśćcie sobie robienie tych modeli, resistance is futile, my mamy model i zawsze będziemy mieli najlepszy model, inaczej to interpretowałem, ale okej, zostawmy, okej.
To jeszcze słowo komentarza do tego, co powiedziałeś, faktycznie jako osoba, która coś tam próbowała nadgonić tego Cloud Nexta, mogę dodać, że jeżeli chodzi o success stories, to było ich dużo, klientów, więc faktycznie tam postarano się, żeby firmy się pojawiły albo opowiadały o tym, jak to fantastycznie, dzięki szczególnie AI Google, rozwiązały swoje problemy.
Może ten, taki problem, który ja miałbym z tymi success stories, można je podzielić na dwie kategorie.
Rekomendacje, systemy rekomendacji, czyli to, co się ładnie nazywa spersonalizowany content, może, i druga rzecz to była marketing, tak, czyli i reklamy, więc to jedyne, ja widziałem takie dwie główne kategorie, może taka malutka jeszcze reszta.
I już naprawdę ostatnia rzecz, to jest to, że cały, cała część Google Nexta też pokazała nowe skrzydło Google'a, które zajmuje się enterprise'em i ma sposób mówienia enterprise'owy, co dla mnie jest o tyle, przyjmuje z uśmiechem, że Google było właśnie taką, wiecie, disruptive company, a tam teraz dostajemy lean playbooki do agile'owego wprowadzenia AI rozwiązań do naszej organizacji, więc jest faktycznie cała duża część też Google Cloud Nexta poświęcona temu.
To jest duża zmiana, ale no może sobie jakiejś pociągniemy temat, jak działają firmy chmurowe w enterprise i tak dalej, ale to jest duża zmiana Google'a, bo Google do tego nie robił.
I tym sposobem przechodzimy do ciekawego produktu.
Sebastian.
Czyżbyśmy chcieli porozmawiać o AI-pinie, bo pojawiły się pierwsze recenzje, ludzie położyli na tym łapki i już niektórzy próbują odpowiadać na pytanie, czy potrzebujemy AI w pudełku, czy nie potrzebujemy AI w pudełku?
No właśnie, no właśnie, no właśnie.
Chyba największy oddźwięk również dzięki wczorajszemu artykułowi z Test Strategy odbił się po recenzji takiego pana influencera, a jego kanał to jest zbiór samych spółgłosek, nie wiem, czy będę go tutaj w stanie, to podlinkujemy go, mhdtk coś takiego, coś takiego, coś takiego. 18 milionów obserwujących osób, więc to całkiem spore, powiedziałbym, range.
I te pierwsze recenzje, które się pojawiły, bo mówimy o AI-pinie, czyli o faktycznie takim małym device'ie wielkości elektronicznego zegarka, które ma nam zastąpić telefon.
Taka jest idea tego rozwiązania.
Dzięki wykorzystaniu AI ma nam zastąpić telefon.
Pierwsze recenzje są bardzo mocno sceptyczne.
Niestety, bo w pierwszych recenzjach widzimy, że nie do końca idea tego rozwiązania się spełnia, a już na pewno nie do końca spełnia się jego implementacja.
I okazuje się, że takież urządzenie jest wolne, nie do końca wygodne, się przegrzewa, baterię postawi zjeść w dwie godziny, co więcej, nie zawsze robi to, czego byśmy oczekiwali, surprise, surprise, czy no jaj.
Oprócz tego interfejs użytkownika, chociaż naprawdę ciekawy, nie wiem, czy widzieliście, jak to działa, ale w tym małym urządzonku, które wygląda trochę jak ze Star Trek'a, jest taki mały wyświetlacz, tylko...
Projektor.
Projektor, dokładnie.
Ten projektor wyświetla na ręce.
I teraz zmieniając kąt ułożenia ręki, ten projektor wykrywa, że my ten kąt zmieniamy i w związku z tym zmienia się coś na interfejsie.
Więc my w intuicyjny sposób, na przykład przychylając dłoń, dokonujemy wyboru z takiego radialowego, okrągłego menu.
Jak zobaczymy to po raz pierwszy, to słyszycie, wow, holy shit, niezłe.
Według recenzentów, to jest podobno bardzo intuicyjne, natomiast no sama jakość tego wyświetlacza, to jest wyświetlacz de facto dwukolorowy.
Nie widać tych szczegółów, teraz patrzcie...
Ej, jest zielony, Fallout wyszedł właśnie, panowie, Pip-Boy.
Okej, no, swój charakter na pewno ma, natomiast z dokładnością to, powiedzmy, podobno jest różnie.
Natomiast jakby pomijając kwestie doskonałości technologicznych, nietechnologicznych i tak dalej, to, co mnie tam zaskoczyło, to ja się spodziewałem, że to atak tego, to będzie bardziej z takim pomysłem na stworzenie platformy.
Czyli na przykład bym miał jakieś superfajne integracje z jakimiś aplikacjami, że będzie tak gdzieś wartość dodana, wykorzystanie tego unikalnego sposobu interakcji bez ekranu, natomiast podobno jedyną integracją, która tam jest, poza jakąś autentykacją, poza uwyczelnieniem na początku, jedyną integracją podobno jest wykorzystanie Tidal'a, to już można sobie puszczyć muzykę z Tidal'a.
Więc chyba jednak będzie mały flop.
Wiesz co, tu jest kilka wątków, to najpierw porozmawiajmy o samym urządzeniu.
My rozmawialiśmy o tych urządzeniach jakiś czas temu, a przynajmniej ja pamiętam, że się wypowiadałem przy okazji takiego urządzenia Rabbit, królik, i ja mówiłem, że nie ma sensu w tej chwili, nie?
I Human AI PIN trochę to potwierdza, że na tą chwilę, w tej formie, z tymi możliwościami nie ma sensu.
I to też pokazuje, jakie są ograniczenia LLM-ów tak naprawdę w tej chwili, nie?
Bo to jest, tak naprawdę, żeby było jasne, nie?
To nie jest, no okej, jest marketing.
By the way, ta firma ściągnęła 230 milionów dolarów w finansowaniu i stworzyła ten PIN.
Chyba wszystko rozbiło się o to, że ludzie się zaparzyli o tą recenzję, która ma tytuł The Worst Device I Ever Reviewed, nie?
Ale, i to jest niestety marketing, nie?
Bo jak się zajrzy, to to jest bardzo dobry review, bo ja poświęciłem te dwadzieścia kilka minut, żeby to obejrzeć.
I ten człowiek mówi, słuchajcie, to jest device, ale on ma swoje użycie.
I teraz ja dzielę ten review na dwie części.
Device i użycie.
I jak przygląda ten device, to on daje cały kredyt dla Human AI.
Czyli super device, dobrze zrobiony, sturdy, wytrzymały, ma ten projektor, przemyśleli kwestie baterii.
Mówi, że to jest top-notch device, nie?
Tylko właśnie potem wchodzi w to, że ten top-notch device nie robi za dużo, bo właśnie nie ma integracji.
On tam mówi, że tam jest integracja z Googlem, Outlookiem i Tidal, nie?
Tylko.
Nie ma żadnych tych.
Ale też ten koleś robi naprawdę dobry review.
I on mówi, a dlaczego?
Dlatego, że ewidentnie nie chcą mieć powiązania z telefonem i z providerami obecnych usług.
I teraz w tej chwili to powoduje, że to urządzenie dużo nie może, bo gdyby się zintegrowało z telefonem, mogłoby więcej, ale oni tego nie chcą.
To jest ich strategia.
Teraz on też mówi, i z tego względu ta strategia ich kopie w kostkę, sami siebie kopią w kostkę, bo to device dużo nie może, nie?
A reszta tak naprawdę nawet nie jest krytyka device, tylko on pokazuje, że obecny sposób wykorzystania LLM-ów, gdzie wszystko idzie do chmury, jest ustalizowane, wraca, zajmuje czas, powoduje, że ten device działa wolniej niż telefon.
Bardzo wolno.
Tak.
I że on jest w stanie tam obrazek szybciej zrobić itd.
I też zwracał uwagę na wyzwania interfejsu, jakim jest głos, nie?
Tam daje bardzo dobry przykład, pod tytułem, zawołam Ubera i chcę zmienić miejsce, do którego on ma przyjechać, nie?
Na aplikacji robię to klikając ręką w PIN, nie?
A tutaj nie wiem, jak to zrobić w ogóle, nie?
To jest, wiesz, to jest, te LLM-y musiałyby mieć agentów, ci agenci musieliby być dobrze pointegrowani, musiało być dużo dobrych integracji, przetestowane te scenariusze, to jest trudne po prostu, nie?
No i tak, no on pokazuje, i ten review pokazuje, że zrobienie tego urządzenia w tej chwili nie jest proste, aczkolwiek jak ja oglądałem ten review, to zrobienie, i jak trochę mam wyobrażenie jak się robi hardware, po jakichś tam przygodach w firmie z zamkiem itd., które obserwowałem z boku, to ja uważam, że oni odwalili fantastyczną robotę na etapie budowania urządzenia, jako takiego, i rozbili się o obecne możliwości LLM-ów i sposobu używania ich po prostu.
Tak, to też mam trochę, tak, wreszcie...
Tak, więc jeżeli, wiesz, jeżeli by wymyślili jakiś mały model, który działa na tym urządzeniu w znośny sposób, robi proste integracje, bo nie ma nawet nie grać z kalendarzem takiej rzeczy, nie?
Który robi trochę rzeczy on-device, szybko, takich najprostszych scenariuszy, to już by było lepsze.
Jakby poszli w to, że gdzieś tam integruje się z jakąś platformą, która ma agentów, którzy mogą coś dla ciebie zrobić w dobrze uścisłych scenariuszach, to by było lepsze, ale nie jest.
No i tutaj mamy to, że faktycznie po takich reviews, gdzie ten device kosztuje 700 dolarów plus 30 dolarów miesięcznie, to nie jest dobry cel, nie wyróżę przyszłości.
Ja sobie pomyślałem, słuchajcie, słowo komentarza do tego produktu, to może dwa, oprócz tego, co powiedzieliście.
Myślę, że faktycznie jest to ciekawy interfejs, który zastanawiałem się, na ile jeżeli byłby użyteczny, byłby na przykład wygodny dla osób starszych, może niekoniecznie jako PIN, ale na przykład jako dużo lepszy zegarek niż dotychczas, że faktycznie dla osób starszych, które może niekoniecznie wygodnie korzystają z telefonu komórkowego, jest to jakieś rozwiązanie, tak, rozmowa z urządzeniem i na przykład pokazywanie przez urządzenie różnych rzeczy, więc myślę, że dla osób starszych może to być ciekawy kierunek w przyszłości.
Natomiast druga rzecz, którą chciałem powiedzieć, to zobaczcie, że to jest drugie podejście w bardzo krótkim czasie do całkiem innej platformy współpracy z urządzeniami, tak, czyli dotychczas mieliśmy smartfony i to był kierunek podejścia, teraz nam się tworzą okulary VR-owe, AR-owe oraz te PIN-y właśnie, czy jakieś inne sposoby korzystania z technologii niż właśnie w smartfonie.
Ludzie to wzrokowcy, 90% ludzi to wzrokowcy i naprawdę, bez tego zmysłu wzroku, ja wiem, że tam jest kamera, tam jest jakieś wideo, ale jeżeli ktoś do ciebie coś mówi, nawet próbujesz w konwersacyjny sposób coś ustawić, nie, tego Ubera chociażby czy cokolwiek, umówić wizytę, to jeżeli ktoś coś do ciebie mówi, to ty masz ograniczoną, powiedzmy, cognitive load względem tego, jak ty to rozumiesz, ile tego przyjmiesz, jak sobie to wyobrażasz, versus jeżeli zobaczysz coś zwizualizowane, to nie bez kozely się mówi, że jedno obrazok jest wart tysiąca słów.
Moim zdaniem tu jest pies pogrzebany, tego najbardziej brakowało.
Widzisz, o tym nie myślałem wcześniej, ale dlatego lubię te nasze rozmowy, a wy, jeśli słuchający, powinniście z nich wyciągać maksymum wartości, jak ktoś ładnie mówi w internecie, bo tutaj przemyślenia na żywo.
Jakby Mark kupił ten interfejs i tą kamerę i ten projektor i wstawił to w te swoje okulary i miałbyś okulary, które, wiesz, są twoim interfejsem, bo tam jest na przykład taki problem, wiesz, że wyświetlania, ale masz okulary, które robią AR, masz dobry interfejs, wiesz, tak działający do tych okularów, głupio będziesz wyglądał, ale będzie działał, nie?
Adresuje to też taki problem, który ten kogoś znając w tym review powiedział, że interfejs czystogłosowy, no, powoduje, że nie zawsze chcesz powiedzieć to, co możesz, nie?
Czyli, wiesz, siedzisz w knajpie i nie możesz po prostu niektórych rzeczy powiedzieć, a tutaj ten...
Albo jest głośno.
Tutaj dodatkowo tego inni nie widzą, bo masz to w okularach i te okulary są podpięte pod swój telefon i patrz, i masz kompletnie inne kombo i jeszcze masz nowy, bo faktycznie ja zobaczyłem ten interfejs, nie?
Stary, to jest naprawdę dobrze zrobione, znaczy ktoś w końcu pomyślał, jak działać inaczej, nie?
I teraz tak pomyślałem, jakby skombinować human.ai pin z tymi okularami i z telefonem, nie, no to masz naprawdę początek jakiejś innej interakcji.
Pytanie, czy interakcji, której człowiek potrzebuje.
AVP już jest, ten interfejs głosowy, myślisz, że to bardzo szybko inkorporują najlepsze kawałki?
AVP coś już ostatnio zamilkło.
Dobrze, tak jak jesteśmy dalej, dzisiaj mamy odcinek wybitnie przyjechał.
Sebastian, jedna, tam widzę tego jednorożca tracącego pieniądze, jeden z dużych jednorożców też ostatnio zaczął tracić pieniądze.
Jest grubo, jest grubo w temacie stability.ai, to nie jest taki pierwszy chyba jednorożec, o którym można powiedzieć, że coś tam się niedobrego dzieje, bo tam jeszcze przed chwileczką mieliśmy chyba inflate.ai, czy coś takiego, tam gdzie Microsoft wjechał z butami, ale wracając do stability.
Stability zaczęło się dziać, no już jakiś czas temu, natomiast taka mała bomba gruszna, 23 marca, kiedy CEO Emmad Mostak zrezygnował, jego funkcję przejęło na chwilę obecną, to pełnią dwie osoby, nie, nie, jeszcze nie, tam chyba COO i CTO, czyli Shanshan Guang i Christian LaForge, czyli tą funkcję bycia co-CEO.
Co się tam w ogóle dzieje?
No, krwawią pieniędzmi.
Kończy się kasa, tam był taki moment, gdzie padło publiczne stwierdzenie, że nie za bardzo mają kasę na to, żeby opłacić rachunek cloudowy, bo zostało im 4 miliony w banku.
I to chyba nawet wyciekło, ile mają tego rachunku i to zostało.
Tak, to są ciekawe numerki, bo wiecie, tam w 2023 roku w ogóle, oni mieli prognozowane 11 milionów revenue za cały rok, 11 milionów, podczas gdy 153 miliony mieli w kosztach.
Co więcej, no to nie jest ich pierwsze działanie, bo oni już tam otworzyli się wcześniej, natomiast... 11 milionów revenue to jest, 11 milionów revenue to jest dwa razy tyle co platforma Donalda Trumpa, a wyceny są wycenami, nie?
Nie porównujemy to może...
Koszt uzyskania tego przychodu jest astronomiczny, można by powiedzieć, tak?
No dobrze, przestaje.
Te koszty im rosną, bo to chyba w marcu było 8 milionów miesięcznie, a jeszcze nie tak dawno, bo w lutym to 5,4, a w listopadzie 3, więc te koszty idą w górę, co więcej.
Tam, rzeczywiście, tak jak powiedział Wojtek, ktoś im policzył, ile oni wydają rocznie na chmurę i to się zamknęło kwotą 99 milionów dolarów rocznie, tam na trzech vendorów, bo tam jest ta AWS, Google i CoreWeave, jest grubo.
I część by im powiedział, żeby sobie serwer kupili.
Ale to jeszcze nie jest koniec, to jeszcze nie jest koniec tej przyjemnej opowieści, bo to jest tak, w ogóle oni, ich waluacja to zaledwie rok temu, to był miliard, także to była całkiem spora waluacja, nie da się ukryć, oni próbowali otworzyć nową rundę, więc to był główny priorytet tego EMAD-a, on próbował, to było z milionów, próbował namówić Google, a nie udało się to, właśnie ze względu na numerki po prostu, na ile ekonomiczne sklepy mają, oni po prostu nie złapali wystarczającej bazy klientów.
Próbowali się monetyzować na różne sposoby, to im też w ogóle nie wyszło, szczerze mówiąc, co więcej, oni mają na sobie potencjalnie mocno kosztowne procesy, bo taki największy z nich to jest chyba z Getty Images, a na którym się podobno trenowali.
Wejdę Ci w słowo, bo ja powiem szczerze, że mocno w tym nie siedziałem, znaczy w ich biznesmodelu, na czym oni się monetyzowali?
W sumie oni się monetyzowali na tym, że tak naprawdę stworzyli sobie duży model i teraz ty zapytaj się, kto go chce hostować.
Bo ja kojarzę, wiesz, rzeczy, które są, dokładnie, ja kojarzę ludzi, którzy budują biznesy na nich, które działają, nawet taki koleś, którego sami wspominałem, Levels, a ja o Peter Levels, on ma te swoje startupy, które generują tam jednak setki tysięcy dolarów miesięcznie i one są na stability zreputowane, z tego co wiem, tylko on tam kiedyś podsyłał, on pokazywał ekonomię tego, że po wytrenowaniu to tak naprawdę on płaci centy z tych setek tysięcy dolarów, on płaci jakieś małe, małe frakcje za działanie tego.
No tak, no bo oni są znani, dodajmy, dla osób, które mogą mnie wiedzieć, między innymi ze Stable Diffusion, tak, i mają modele, jeżeli chodzi o obrazy wideo, audio 3D, tak naprawdę.
Tu będę upierdliwy i powtórzę to prawo, które sam swego czasu tam wymyśliłem albo skopiowałem podświadomie, czyli to jest to, że jeżeli chodzi o modele LM-owe, różne, graficzne czy tekstowe i tak dalej, to tak naprawdę nie ma nagrody za drugie miejsce.
I teraz tak długo jak Stable Diffusion, to był bardzo dobry model, to rzeczywiście było zainteresowanie, była chęć inwestycyjna, tak długo jak udawało się im stworzyć UUD, że jest jakiś mode, że będą najlepsi, ale potem to się zmieniło, na Mid Journey rozwijało się znacznie szybciej, są lepsze modele.
Ale wiesz co, to chyba nawet nie chodzi o jakość modelu, tylko to jest trochę co rozmawialiśmy przy okazji Google'a, no bo im brakuje ekosystemów, które mogą to osadzić, takiego...
Jak masz najlepszy model, to przyjdą do ciebie, żeby cię wykorzystywać, nawet jeżeli cię przykryją czapką i nie pokażą twojego logo.
A jak jeżeli nie masz najlepszego modelu?
Oni tak, nie zbudowali swojego produktu, no mogliby inwestować w produkt, ale oni stwierdzili, że będą mieli najlepszy engine, będą mieli najlepszą maszynkę pod spodem.
To też się nie udało.
To się już chyba nie uda.
No tytuje znowu sama A, resistance is futile.
Jak masz model, to my zrobimy lepszy.
Mój jeden komentarz może do tego, to słuchajcie, jeżeli Stability miało rachunki typu, no załóżmy, do 100 milionów dolarów rocznie, to pomyślmy, jakie rachunki za clouda musi mieć w takim razie OpenAI.
Albo Antropik, tak?
To muszą być gigantyczne koszty.
To jak wygląda Mid Journey w tym kontekście, bo ile pamiętam, to Mid Journey to jest mała firma, ale jeżeli chodzi o ilość ludzi, wymyślili sobie jakiś model, albo działa, albo dalej palą pieniądze.
Tak, no pokazuje to, słuchajcie, jak dużo faktycznie trzeba, jakie budżety trzeba mieć, jakie dojścia do cloudów trzeba mieć.
To jest najciekawsze pytanie, tak naprawdę, co będzie dalej.
Bo to, co już wiemy, to że tam nieoficjalnie odeszło kilku inżynierów właśnie odpowiedzialny za ten największy model.
Żeby nie było, od czasów, kiedy dowiedzieliśmy się, że firma ma problemy, to Stability dalej wypuściło parę modeli, tam Stable LM2, Stable Audio 2, one nic chyba nie zmienią.
Teoretycznie firma działa dalej, natomiast co dalej, no prawdopodobnie jakiś wykup, prawdopodobnie jakieś...
Już miałem powiedzieć, że jakbym miał obstawiać przyszłość, zostaną wykupieni w podobny sposób, jak ta firma, którą Maxon wykupił.
No chyba, że tam już tak naprawdę to takie value, jeżeli chodzi o najlepszy inżynier, ono już poszło w rynek, bo to w tym momencie, co tu wykupywać?
Też może być, ale może być value w modelu albo w czymś...
W sprzęcie jeszcze jest zabezpieczone.
Tak.
Bo tam najciekawsze jeszcze element tego, co Maxon wykupił, to było takie, że tam tak naprawdę odbył się zwrot kapitału przez to do inwestorów, nie?
Więc to jest tak, że to było dziwne przejęcie.
Jakbym miał, no to ktoś, kto może chcieć kupić IP, tylko może być dokładnie, że te modele na tyle odjechały, że to ich IP może już nie być takie atrakcyjne.
I pytanie, co z prawami autorskimi, to co Sebastian powiedział.
Moja mała przypowiednia, też wiesz, z wielu takich przypadków.
Tak, myślę, że ich będzie więcej, to pokazuje...
To chyba ty, Sebastian, powtarzasz wpółko, że to jest rok Token Economics.
I w nim Economics tak wcięło jajka.
Tak, tak.
I to chyba będzie cały czas, wszyscy to pokazują.
No dobrze.
W tym optymistycznym akcentu.
Ale nie skręcamy, bo odcinek był dookoła AI.
Przy okazji poznaliście Prawo Grymskiego, trademark.
Jak będziemy to często powtarzać, to tak zostanie.
I to tutaj było pierwszy raz.
Dobrze, przypomnę tylko na zakończenie, że jeżeli chcecie dostać powiadomienia o kolejnych odcinkach, różne skróty, mam nadzieję, pojawią się dodatkowe treści, www.ctomorling.coffee, tam zapiszcie się na powiadomienie.
Tam znajdziecie naszą listę, jesteśmy za to wdzięczni doskonnie.
Już w skrótce CTO Morning Coffee Pin, który będziecie sobie mogli wpinać i wtedy będziecie mogli nas słuchać przez cały czas.
Tak, nazwiemy ten produkt Greckich Hur i to jest po prostu nazwa, która rozbije to całe.
I będziecie tam mieli live commentary do całej rzeczywistości dookoła was.
To by było ciekawe w ogóle.
Stary, szczerze, za produkt, który by komentował świat dookoła mnie głosem Monty Paytona, to bym zapłacił.
Kiedyś zapłaciłem za Sidney Roma z Monty Paytonem, to było to.
Dzięki panowie, dobra rozmowa.
Dobra, to zobaczymy, jak oceniam, dajcie nam znać w komentarzach, kliknijcie dzwoneczek i widzimy się za dwa tygodnie.
Dzięki, miłego dnia.
Na razie, miłego, cześć.
Znowu spróbuję zrobić.
Napisy stworzone przez społeczność Amara.org Dziękuję za uwagę i do zobaczenia w kolejnym odcinku.