Brew #18: Elon walczy z całym światem, Dramy i Nowości w Świecie LLM, Roboty na chodnikach Warszawy

że oni ich zdedosowali z dwóch płatnych kont.

Kwestia, żeby te robociki, mówiąc wprost, nie znikały po drodze.

I szczerze mówiąc obraża mnie jako czytelnika.

No nie wiem, nie powijało optymizmu nam od was.

Tak, Wojtek się opiera, jest na Macu, mamy z tym problemy techniczne, przekonamy go na Windowsy, zobaczymy.

Kolejny brew, kolejny tydzień.

Tarczęszym krokiem wpadliśmy na nasze nagranie.

Sebastian Gębski, Wojtek Takton, Konyszko.

Jeżeli ktoś pierwszy raz nas zobaczył, bo Google mu to podsunął, dziękujemy algorytmowi, opis jest na dole.

Tutaj możecie spodziewać się opinii, krytyki, ognia wymiany poglądów na tematy technologiczne i okoliczne.

Dobrze, panowie, kolejny brew, kolejny tydzień.

Co tam mamy ciekawego, co się wydarzyło z takich rzeczy ulotnych, które możemy podrzucić ludziom?

Sebastian.

Oj, dużo się dzieje, dużo się dzieje.

Ja zwróciłem uwagę na to, że Frank Slotman ogłosił, że odchodzi ze Snowflake'a.

Czy to nazwisko wszystkim coś mówi?

Pewnie nie, natomiast to jest człowiek, który miał kolosalny wpływ na ten biznes.

Tu polecam książkę, z której można bardzo dużo się dowiedzieć właśnie na temat Franka Slotmana i samego Snowflake'a, jak on powstawał.

Książka ma tu ampetap.

To jest człowiek, który nie podchodzi pod taki standardowy profil takiego college dropouta, wizjonera produktowego, young kid, robiącego wielką karierę w technologii.

To jest człowiek, którego można nazwać rasowym operatorem biznesów.

Czyli on po prostu przychodzi często już do biznesu, który ktoś stworzył wcześniej i ma tak naprawdę wycisnąć z niego jak najwięcej się da i rozwinąć ten biznes do jak największych rozmiarów.

Ta książka jest dokładnie o tym.

To, co jest ciekawe, bo będę trochę mówił o książce, trochę o sobie.

To, co jest ciekawe, to jest to, że ta książka jest totalnie bez lukru.

Czyli to, co pewnym CEOs nie przeszłoby przez gardło ze względu na poprawność polityczną i inne różne tego typu historie, to Frank Slotman nie ma problemu z tym, żeby po prostu walić prosto z mostu, że przede wszystkim liczy się biznes, przede wszystkim liczy się skuteczność, przede wszystkim liczy się execution, a i na przykład złych jabłek należy się pozbywać w taki a taki sposób.

Więc książka jest do bólu bezpośrednia, co akurat uważam, że jest bardzo dużą zaletą.

I właśnie, i to jest książka o takim being a business operator.

To jest bardzo ciekawe.

Czyli dla wszystkich osób, które chcą zbudować jakąś firmę, które myślą o tym, które zastanawiają się nad swoim stylem, nad takim developingiem swojego stylu zarządzania, bardzo dobra książka.

To nie jest książka o historii Snowflake'a, o jakichś powiedzmy początkach Snowflake'a, to jest bardziej właśnie historia o tym, w jaki sposób budować biznes.

I teraz to, co jest ciekawe, już może nie w samej książce, ale w tym wydarzeniu, to jest tak naprawdę jak wiele sukcesu, niewątpliwego sukcesu firmy Snowflake należy przypisywać Slotmanowi.

No bo na pewno byli tam inżynierowie, którzy wcześniej nie mogli zrealizować swoich wizji, kiedy budowali inne engine'y baz danych w innych firmach, o których nie będziemy tutaj wymieniać, to na pewno, na pewno dużą rolę grało to, że produkt jest bardzo intuicyjny, wygodny do użycia i faktycznie bardzo łatwo w niego wejść.

To też na pewno ma swoją rolę.

Natomiast ja bym powiedział, że roli Slotmana również tutaj nie należy niedoceniać.

Także dosyć ciekawa sytuacja, wiadomo jak to było w przypadku tych wielkich CEOs, że oni nie zawsze mieli tę umiejętność wychowywania sobie następcy.

Zobaczymy, jak będzie w tym przypadku.

Tutaj właśnie próbowałem sobie przypomnieć, czy czytałem książkę, czy nie.

I muszę sprawdzić, bo nie pamiętam.

Czyli albo nie zawadłem o nich w pamięć, albo nie czytałem.

Więc sobie wrzucę.

Jedna ciekawa rzecz, znaczy trochę będę miał swój confirmation bias.

Dla tych, którzy nie wiedzą, prowadziłem jakąś firmę dość długo.

Ja to w ogóle uważam, że te nudne biznesy, w których się buduje wartość, to one są dobre, nie?

I Snowflake trochę to pokazuje.

Nie takie, które tam spróbujemy wyskalować je na 100x, tylko pompując pieniądze, ale takie, które to zbudujmy produkt, dobrze zarządzajmy firmą i tak dalej, i tak dalej, nie?

Dużo ludzi uważa, że to jest trudne.

Ja uważam, że nie.

To jedno chyba co do samego wydarzenia...

To jest trudne.

To jest trudne, tak.

Jedno co do samego wydarzenia, to rynek ogólnie zdziwił się stylem, nie?

Bo tam nie było zapowiedzi, odchodzę.

Tylko tam był earning call, który nam powiedział, to jest nowy CEO, nie?

I tam Snowflake zaliczył duży drop, 25% w akcjach.

I to nie dlatego, że...

Znaczy, z jednej strony można powiedzieć, że twoje pytanie, czy powiedzmy pytanie, tak rynek dużo wycenia tego, że Snowflake zrobił w jego osobie.

To jest te 25%.

Tak to rynek wycenił, nie?

No ale to było ciekawe, bo w ogóle zawsze to raczej się ogłasza wcześnie, a tutaj jest jakiś tam transition coś, nie?

A teraz nasz nowy CEO powie Wam, co zrobimy w AI.

Pum, nie?

A ja już jestem na emeryturze.

Więc ciekawy styl, taki niesztampowy, przyznam.

Ale nowy CEO już też pojechał, powiedziałbym, w sposób przewidywalny, bo było głównie Gen AI, Gen AI, Gen AI.

No tak, no to już wiesz, tego oczekuje od niego rynek w tej chwili.

Taka jest prawda, nie?

No ale to jest właśnie ten styl, nie?

Czy robię to, co oczekuje rynek, czy robię to, co uważam, to jest dobre dla firmy.

Dobrze, to może ja się podzielę, ja mam kilka rzeczy.

To może zacznę od takiej jednej z lokalnego podwórka, wcześniej już o tym mówiłem.

Była druga odsłona przysłuchania w sprawie pociągów Newak.

Komisja sejmowa zbiera się i rozmawia.

Będzie trzecie, żeby było ciekawie.

To bym nie wyczerpany.

Dlaczego uważam, że to jest ciekawe?

Pierwsze, jednak to była jakaś tam mała aferka na polskim rynku, która miała sensowne podłoże.

To warto wiedzieć, co się dzieje dalej.

Bo gazety może o tym nie będą pisać, bo to już jest ta nudna część.

Druga, absolutnie disaster ze strony firmy Newak.

Jak ktoś nas pozwie, to dalej nie mamy prawnika, ale po prostu obserwowanie tego, jaką linię obrony wybrali, jak do tego podchodzą, jest aż smutne.

Aczkolwiek, i dlatego też uważam, że to jest ciekawe, to pokazuje, jak ciężkie jest rozwiązywanie problemu, który jest dookoła software'u.

I tam się pojawia duże części pod tytułem, a czyja to jest odpowiedzialność itd.

I to nie jest takie proste, bo każdy może wyciągnąć papier, na którym jest napisane, a to nie moja odpowiedzialność itd.

I ciekawie widać starcie ludzi, którzy są w biznesie takim tradycyjnym, z ludźmi, którzy siedzą w informatyce, jak rozmawiają różnymi językami i przyjmują różne postawy.

Więc warto zajrzeć.

Cytując Dune'a, wiesz, oni mieszą swoje plany w różnych horyzontach czasowych.

Tak, to widać.

To widać po prostu jasno, że firma przyjęła pewną linię obrony i niestety wychodzi z niej jako taki dark William, nielubiana postać itd.

Moja ocena.

Z takich ciekawostek, Apple tańczy w dziwny sposób, to już o tym trochę rozmawialiśmy, ale w tym tygodniu, to w ogóle w ostatnich dwóch tygodniach wydarzały się jakieś dziwne rzeczy, czyli...

Nie będzie Fortnite'a.

Apple ogłosił, że można otwierać te sklepy swoje itd.

Epic powiedział, no to my sobie odtworzymy sklep.

Apple powiedział, nam nie podoba się, jak to powiedzieliście, bo brzydki był ten tweet, to wam wyłączymy konto.

Epic powiedział, chyba was powaliło.

Apple powiedział, o, faktycznie, to wyłączymy konto, nie?

Krótko mówiąc, ja nie wiem, co Apple planuje.

Chodzi znowu na takiego dark William obecnej ery komputerów.

Tam się cuda dzieją.

No, ale zobaczymy, może Tim Cook to jakoś ugotuje.

A trzecia rzecz, którą mam, to znalazłem w tym tygodniu i ona jest dość ciekawa, to jest trochę ekonomia.

Pojawiło się takie porównanie, Financial Times wypuścił dokument, znaczy artykuł, w którym jest pokazany non-farm output per hour w UK, Eurozone i z cenami zjednoczonymi.

No i co tu widać?

Tu widać jedną rzecz, że generalnie Stany produkują dużo więcej niż Eurozone i UK.

Tak, kiedyś o tym rozmawialiśmy, gdzie jest Europa.

I co ciekawe, taki dodatkowy wykres, który tutaj też mam, się okazuje, że Stany produkują dużo więcej, nie zwiększając kosztu godziny, czyli generalnie koszt godziny jest, lekko się zwiększa, Stany produkują więcej niż zwiększają koszty robocze godziny, a w Europie jest dokładnie odwrotnie.

Czyli generalnie koszt pracy rośnie, a za tą pracę mniej produkujemy.

I teraz jakby patrzeć tylko na te wyrwane dane, one są od jakiegoś 2016 roku do teraz, no to generalnie Europa się stacza, tak produkcyjnie.

No i...

Spokojnie, czterodniowy tydzień pracy w Europie będzie dobrze.

To był właśnie mój komentarz między innymi, że...

I to jest ciekawe, bo ja trochę mam styczności z ludźmi ze Stanów i tam jednak jest takie coś, co się nazywa sense of urgency, muszę coś robić, produkować, mieć pracę itd., itd., nie?

A u nas jest bardziej czterodniowy tydzień pracy.

No nie jestem przekonany, czy to dobry kierunek, powiem szczerze, no ale cóż.

Czy byliście kiedyś na konferencji dla programistów, no już wszelko pojętego IT, na południu Europy?

Włochy, Hiszpania?

Nie, nigdy.

To powiem wam, to jest...

Dla mnie to bywa tak, że faktycznie jest zderzenie różnych prędkości, więc ja bym powiedział, że Europa też nie jest spójna w tym wszystkim.

Prędkość między nami, a południem Europy, tak?

Zdecydowanie.

Nie, to to wiem, nie?

Ale na konferencji nie byłam.

Także to widać.

Tylko ten gap jest duży i rośnie.

I to jest ciekawe, nie?

Z czego to wynika?

Czyli generalnie ta produktywność w strefie euro na przykład w zeszłym roku zaczęła spadać, a w Stanach to poszło w górę.

No to wynika z prostej rzeczy.

No wynika z tego, że Amerykanie przestawili sobie supply chain z Chin na lokalny, no i po prostu zostało to bardzo mocno wspierane przez rząd centralny i tyle, no.

I to tylko będzie przyspieszać.

Bo jak wiem, to wiele inwestycji dopiero się rozpoczęło albo nawet nie rozpoczęło, a będzie kontynuowany, więc...

No nie wiem, nie powijało optymizmu nam od Was.

Dobra, Wojtek.

Słuchajcie, ja mam jeden konkret, który przechodzi, myślę, w temat, który chcieliśmy rozpocząć.

Czyli Elon bodajże wczoraj wieczorem ogłosił naszego czasu, że będzie open source Groka.

Ja próbowałem szukać coś więcej, no ale jak to z Elonem bywa, niestety to jest jeden tweet i zobaczymy.

Nawet za dużo komentarzy, spróbowałem przez nie przejść, nawet za dużo komentarzy nie ma.

Spróbowałem popatrzeć na osoby, które pracują nad Grokiem, też nie, mogą być chyba zaskoczone.

Mogą być.

Nie wiem, którego szefa, więc zobaczymy.

Ciekawe, czy jaka lina już wie.

Dokładnie.

Natomiast jest to na pewno ciekawy ruch, bo jak wiemy, modele te open source'owe, o których i o tym też będziemy za chwileczkę mówić, naprawdę dobrze sobie radzą, więc jest to...

Byłby to ciekawy ruch, bo na pewno Grok nie jest tu zinkowy, tak?

On jest szeroko komentowany, więc zobaczymy.

Natomiast płynnie przechodzę...

Nie, ale jeszcze mam dwa wredne komentarze.

To ja będę mieć te wredne i emerytoryczne obrazy.

Pierwszy wredny komentarz, to jestem ciekawy, bo on w ogóle zapowiedział, że się w ciągu tygodnia stanie, więc jestem ciekawy, czy to wyopen source'owanie będzie wyglądało tak, jak wyopen source'owanie algorytmu Twittera.

Czyli że zrobili forka, skopiowali i osiągnie zmienia.

Ile czekamy na FSD?

Zaczekaj.

Drugi wredny komentarz jest taki, że...

No właśnie, co to znaczy to wyopen source'owanie?

Bo wszyscy mówią, że modele open source, ale ja tam żadnego open source to nie widziałem.

Tam jest open from limited use under certain constraints, czyli nie wiesz, na jakich danych to było trenowane tak naprawdę, nie wiesz, jak wygląda fun tuning.

To, co tak naprawdę dostajesz, to możesz sobie skopiować ten model.

Wagi i metadata, dokładnie tak.

Więc jak to jest open source, to ja nie wiem, co to jest open source.

To są dokładnie te dwa komentarze, znaczy jeden, który ja chciałem też zrobić.

Simon Worley, którego czasami cytuję, on właśnie często pisze, open source znaczy pokażcie nam training set, pokażcie nam wszystkie dane, na których go trenujecie, i tak dalej, nie?

Że open source będzie wtedy, jak właśnie będziecie pokazywać to.

I fine tuning.

Tak, jak jesteśmy przy modelach open source, jest dobry wywiad w zasadzie u Leksa Friedmana z szefem, zapomniałem jego nazwisko w tej chwili, bo grzebiemy AI w meta.

A, Jan LeCun.

Tam jest dużo na temat tego, jak oni do niego podchodzą, jak on to widzi i tak dalej, nie?

On jest, to też bardzo polecam, bo LeCun, to trzeba przyznać, jest troszeczkę w poprzek wielu nurtom, które się aktualnie pojawiają.

Tak, tak, tak.

I nie boi się powiedzieć, że inni nie mają racji, więc też polecam śledzić jego Twittera.

Jest to tak, jak Leksa ostatnio mało tam znajduje ciekawych rzeczy, to tutaj polecam.

Wracając, wracając, mamy jedną z, chyba Dolina Krzemowa będzie żyła najbliższy, przez najbliższe miesiące, jak nie dłużej, czymś, co się, co ruchnęło, którą muzycę zna w niebie, czyli Elon pozwał OpenAI oficjalnie.

Nie tylko.

Nie tylko, też Microsoft tam po drodze, więc będzie się działo.

Sam Altman personalnie.

I sam Altman personalnie.

Słuchajcie, no to, aha, i chyba jeszcze z tego, co pamiętam, to nawet, nawet co founderów, więc pewnie nawet naszemu Wojtkowi Zarembie też się dostanie, więc zobaczymy.

Natomiast, generalnie rzecz biorąc, bo próbowałem też się wczytać mniej więcej, co się dzieje, więc chętnie usłyszę Wasz komentarz, więc zamykając może do jednego zdania, chodzi o to, że OpenAI nie jest OpenAI, tak, czyli że umawialiśmy się na początku, że będziecie robili to dla dobra ludzkości, a Wy zapierniczacie jak króliczki, jeżeli chodzi o tę, o tę technologię, wypuszczacie nowe generacje modeli, zwróćmy pod uwagę, zwróćmy uwagę, że w poprzednim BRU rozmawialiśmy o modelu, który generuje wideo i to jest dosłownie tydzień, dwa tygodnie po wypuszczeniu tego modelu od wideo i Elon powiedział, no dobra, słuchajcie, Wy musicie otworzyć bramy dla dobra ludzkości, ja biorę na siebie, na swoją klatę to, żeby Was pozwać, jest kilka smaczków, ale zanim do tych smaczków przejdę, to chętnie Was pytam, co Wy o tym myślicie.

No dobrze, to ja zacznę.

Widzę, że Sebastian się zbierał sobie.

Znaczy, nie wiem, czy tam w smaczkach planujesz, ale żeby dać cały obraz, OpenAI chwilę czekało, tam sam chyba nawet napisał takiego tweeta, który był w skrócie it means war, ale tak na zasadzie Elon szanuje Cię, nie?

I to, co robisz.

I po tym tweecie wypuścili swoją odpowiedź, to trzeba zaznaczyć, że ta odpowiedź się pojawiła.

I krótko mówiąc, oni wyciągnęli swoją wersję wydarzeń, która pokazuje, że Elon nie był w takim...

To był smaczek numer jeden, że Elon już raz próbował przejąć całkowicie OpenAI, wchłaniając do Tesli.

Tak, to jest taka ciekawostka, że no oni pokazali swój Elon, to nie jest tak, że my tutaj zawładnialiśmy komercyjnie, sam stwierdziłeś, że to musi być komercyjne, bo inaczej nie zadziała, tylko chciałeś to mieć u siebie, nie?

Więc jak my wzięliśmy swoje zabawki tutaj, to teraz się tutaj na nas obrażasz, ale nie tylko, to są maile.

Wiesz co, czy Elon chce tym spowodować jakiś ruch od strony OpenAI?

Wątpię, to raczej personalne rzeczy wchodzą w grę.

Może czuje się oszukany, nie wiem, tak?

Znaczy na pewno to będzie długie, przetnicy na tym zarobią, nie wiem, czy to posunie gdzieś dalej całość.

A ja tu się z tobą nie zgodzę, bo ja myślę, że po prostu Elon widzi, że mu pociąg odjeżdża, ale słuchajcie, rok temu już przecież krytykował bardzo ruchy Microsoftu i OpenAI i bardzo krytycznie odniósł się do tego i próbował walczyć, żeby było, prawda, ażeby sztuczna inteligencja była dla wszystkich.

Chciał, bardzo mocno lobbował, żeby wprowadzić pewien hamulec ustawowy, jeżeli chodzi o rozwój AI, przypomnę, to było dokładnie rok temu, ponieważ oficjalnie ludzkość jest zagrożona, po czym kilka miesięcy później oficjalnie wypuścił groka, więc tak naprawdę ewidentnie Elon rok temu był, wiecie, no nie nadążał za tym wyścigiem.

Ja osobiście patrzę na to, że to jest kolejny ruch dokładnie z serii słuchajcie, w imię ludzkości wszystko jest pięknie, a w rzeczywistości tak naprawdę chodzi o to, że prawdopodobnie Elon i jego zespoły nie radzą sobie aż tak dobrze, jakby tego oczekiwał SMLO.

Myślę, że jego tu boli kilka rzeczy.

Jego przede wszystkim boli to, że on tam na samym wstępie inwestował, tam 45 milionów dolarów wrzucił, w momencie, kiedy całkowity funding tam zamknął się łącznie z tą kwotą w 100 milionach, a on wrzucił kasę w coś, gdzie rzeczywiście twierdził wtedy, że to ma być otwarte, żeby wszyscy mogli z tego korzystać, a korzysta z tego głównie Microsoft, więc sfinansował tak naprawdę mega biznes Microsoftu.

Myślę, że to boli.

Mnie by to bolało.

Myślę, że jego to też boli.

A więc to jest pewnie jedna kwestia.

Druga kwestia jest taka, że on już tam swoje emocje, to tam jak się trochę pogrzebie, to było widać wcześniej w tych starczach z jentzartmanem.

No było widać, to jasne, nie?

Tak, on tam wychodził z wielkim fochem i powiedział, że to się w ogóle w życiu nie uda, nie ma żadnych szans i tak dalej.

Tam te różne rzeczywiście były propozycje, o których mówi Wojtek, czyli tam dołączcie do Tesla jako tam cash cow, może coś wtedy z tego będzie.

Więc ja się całkowicie zgadzam z tym, że on był świadomy, że wtedy te 100 baniek czy tam te 45, które on porzuci, to nie jest wystarczające.

Zresztą są na to maile, którymi oni tam się podpierają, że była świadomość, że to billions of dollars to run it.

Nie, to taka wielka różnica.

To co mnie jeszcze tam zbulwersowało i szczerze mówiąc to mi działa na nerwy totalnie, to jest w tej odpowiedzi, którą wystosowało OpenAI, było coś takiego, a my jesteśmy otwarci i tutaj zaczęło się to ascytowanie, co to oni nie robią, że tam w Albanii jakieś narzędzia oparte na OpenAI przyśpieszą dołączenie do Unii Europejskiej o całe pięć i pół roku i taka jakaś inna propaganda, że to jest ta otwartość, przez to, że jest ta darmowa wersja no i ktoś tam z niej korzysta jeszcze jakoś tam z API, a oni jeszcze gdzieś tam jakiegoś granta dali.

Wielka otwartość, muszę powiedzieć, tak.

Więc dla mnie takie tłumaczenie, to jest jakieś tłumaczenie dla jakichś półgłówków i szczerze mówiąc obraża mnie jako czytelnika.

Ale pamiętaj, że to nie było tłumaczenie siebie czy coś, tylko to niestety już trzeba patrzeć przez taką optykę, to jest szukanie, wiesz, amunicji i gruntu pod sąd tak naprawdę, nie?

Jeśli to się faktycznie dojdzie, słuchajcie, do rozprawy w sądzie, która myślę, że będzie jedną z najbardziej i najmocniej komentowanych w Newsach w najbliższych miesiącach, to dla mnie takim jednym ze smaczków właśnie też jest to, że OpenAI wybrało bardzo specyficzną kancelarię prawniczą, czyli Watchtel, Lipton, Rawson & Katz.

Jest to firma, którą wynajął Twitter swego czasu, żeby, słuchajcie, zmusić Elona Muska i dokończyć zakup Twittera za obiecaną kwotę 44 miliardy.

I w tamtym roku, w maju, Elon Musk pozwał ich, i to cały czas trwa, na 90 milionów dolarów tytułem niesłusznego wzbogacenia się kosztem Elona Muska.

Więc Elon Musk z tą samą firmą będzie się spotykał kilka razy i to będzie bardzo bolesne, to jest slapping the face.

To jest bardzo, bardzo konkretna firma wybrana, myślę, że ktoś dołożył do tego, żeby, słuchajcie, wybrać właściwą firmę, żeby Elonowi troszeczkę wejdzie na egzoturę.

Stany, mały kraj, wiesz jak jest, tak z ekipami remontowymi, nikt inny nie był dostępny.

No, słuchajcie, kto może we wtorek, to my.

Ale jakbym chciał być bardzo cyniczny tutaj, to bym powiedział, że oni dokładnie wiedzą, jak Elona wzbudzić, nie?

I wybrali taką firmę po to, żeby go wzbudzić, żeby osiągnąć odpowiednią reakcję.

Jest to firma, która odniosła ogromny sukces, to trzeba przyznać, bo nie wiem, czy pamiętacie, ale Elon bardzo wiele ruchów wykonywał, żeby się wykręcić wtedy z tego, więc jest to na pewno firma, która ma 1-0 z Elonem, można tak powiedzieć.

No tak, ale fajnie, że nie tylko Elon stoi i nie tylko takimi pozwami, nie wiem, czy widzieliście w weekend, tam się pojawiła ciekawa rzecz, że Emily Jordania skarżyła z Stability też o to, że im kradną algorytm, pomówiąc, czyli gdzieś serwery milczarne się skraszowały i chłopaki z milczarni powiedzieli wiecie co, widzimy, że Stability stuka wszystkimi możliwymi promptami i tak dalej, kradnie to, co robimy i...

No to jest, tymi wszystkimi możliwymi promptami, bo tam właśnie, to, co jest ciekawe, to była informacja, że oni ich zdedosowali z dwóch płatnych kont, zbierając pod uwagę wszystkie tam limity, które tam są, a to do tej pory ludzie zachodzą w głowę, jak to jest możliwe.

Tam była jakaś taka dyskusja na poziomie CEO to CEO, a to ciekawe, w tym oskarżeniu ze strony Major nie padło stwierdzenie, że oni skrapowali dane.

Jak oni im skrapowali dane?

Nie znajdzie sposób na to, żeby model ściągnąć?

Come on, to jest, jeszcze też nie wiadomo, o co biega.

Oczywiście CEO ze Stability AI, a też Matt Mostak, on się zdziwił, więc napisał publicznie, że nie wie, o co chodzi, że nawet jeżeli ktoś coś próbował udziałać, to nie było to bynajmniej tam DDoS, natomiast to jest, ciekawa jest w ogóle bardzo radykalna odpowiedź mid journey, bo oni mieli autę chyba ze 24 godziny, więc to naprawdę długo, i wynikiem tego jest taki dopisek do ich tam postanowień licencyjnych, że, i tak oni to powiedzieli, aggressive automation or taking down the service results in banning all employees of the responsible company.

Czyli jak znajdziemy, że na przykład ty z firmy XYZ tu nam zrobiłeś kuku, czyli nam pojedynczo zdeDoSowałeś nasz serwis, ironia celowa, to w tym momencie wszystkich innych, którzy pracują w tej samej firmie, co ty, również wywalamy.

Więc widać, ktoś tam nieźle nadepnął na ten odcinek.

Aż widzę pracownika Google'a, który w tej chwili kolegom robi psikusę, nie?

Albo tam innego Microsoftu, żeby to było, że Google nie lubi, czy coś.

David Holtz na iksie się tam skontaktował ze stabilitowcami, żeby im przekazać szczegóły.

Więc zobaczymy, czy się dowiemy, co tam w ogóle się wydarzyło.

Ale sorry, dla mnie zdeDoS dwóchkąt brzmi naprawdę jak niezła parodia.

To nie koniec nowości.

Myślę, że możemy przejść do kolejnej, kolejnego ukłuszenia, które się wydarzyło, więc to naprawdę przyspieszę.

Co powiecie na Mistral i Microsoft?

Czyli myślę, że tutaj podlinkujemy.

Oficjalnie Microsoft pochwalił się, że i Mistral, przepraszam, Mistral, że Mistral, wypuszczono nowy model, czyli Mistral Large, który jest natywny po angielsku, francusku, hiszpańsku, niemiecku, włosku.

Ma 30 plaka okienko i jest naprawdę, całkiem dobrze sobie radzi, jeżeli chodzi o różnego rodzaju właśnie metryki.

No i ogłoszenie, że Microsoft udostępnia trzy takie główne obszary, czyli supercomputing infrastructure, narzędzia scale to market, jak to ładnie powiedziano, czyli między innymi AI Studio, machine learning, model catalog itd., itd., czyli będziemy mieli wszystko ładnie w API zintegrowane.

No i trzecie, i to było bardzo ciekawe, i tu będę czekał na więcej ogłoszeń, bo Microsoft zrobił bardzo sprytny ruch i chętnie tutaj właśnie usłyszę Wasz komentarz, ale trzecia gałąź to jest AI Research and Development, czyli trochę to wygląda tak, jak tutaj nieraz wspominaliśmy, że w okresie gorączki złota najlepiej wychodzi ten, co sprzedaje łopaty, to oni jeszcze mówią, to my chcemy obserwować, jak ty tą łopatą kopiesz i będziemy wspólnie pracowali, żeby ta łopata była jeszcze lepsza.

Co myślicie o tym?

No ja tu się wyrwę do odpowiedzi.

Znaczy, nie powiem nic kontrowersyjnego czy odkrywczego o tym, że Sebastian coś dorzuci, ale to według mnie to, co widzimy z jednej strony, to o czym rozmawialiśmy przy okazji OpenAI Drama, że po prostu Satya zaczął chydzować zabezpieczenie Microsoftu na wszelkie korekty.

I tutaj głębiej wchodząc trochę, czy tak jakby przemyślenia, no bo mamy, Microsoft poszedł jednak na początku w inny model niż Amazon na przykład, czyli jednak związał się mocno z jedną firmą i zaczął to oferować w ramach usług konkretnych i tak dalej, i tak dalej, więc Wy tego nie widzicie, może widzicie, ale jak się rozmawia z tymi klientami, to oni jednoznacznie łączą Microsoft AI z OpenAI, nie?

To się po prostu nazywa OpenAI.

I teraz to jest, to było fajne, bo OpenAI było na początku i pierwsze, ale to jest dla nich zagrożenie, nie?

Bo oni teraz muszą nawet messaging taki przekierować, że to już nie jest OpenAI tylko, nie?

Tylko, że to jest AI, nie?

Tak, czyli że to jest Microsoft AI jakoś.

Nie będą tego robić.

Właśnie.

Pewnie nie będą tego robić.

Twój brand, twój brand jako czapka.

Co działa pod spodem?

Who cares?

No to dokładnie.

Muszą, wiesz, zrobić Microsoft AI, cokolwiek, nie?

Bo tylko pilot używać pod spodem.

Tylko to widać jasno, nie?

Że oni hedżują swoje szanse, używają swojego firepower pod tytułem mają i wszyscy, które mają pieniądze, które mogą wrzucić w taką firmę.

Mają produkty w API, które tak naprawdę flagą pewnie będziesz wybierał, co masz pod spodem, tak jak Sebastian mówi.

Jedna rzecz, na którą trzeba zwrócić uwagę jest to, że włączenie Mistrala, jeżeli oni faktycznie dobrze wspierają te języki i tak dalej, to adresuje gap, który Microsoft ma, bo ma, języki europejskie w tym swoim AI, nie?

Na przykład w Polsce to jest duży problem z adopcją tego, że to oficjalnie nie wspiera polskiego, nie?

Chyba w zeszłym tygodniu było ogłoszenie albo nawet przy okazji Mistrala, że, wiesz, zaczynają wspierać niektóre języki europejskie.

Microsoft, jak, wiesz, robi push na te wszystkie licencje dookoła copilota, w productivity i tak dalej, to musi wspierać te inne języki, nie?

No i z tego punktu widzenia włączenia takiego Mistrala ma jak największy sens, bo po pierwsze jest europejski, nie?

Francuski i tak dalej.

Compliance, European Union tego typu rzeczy, ale też adresuje im realny problem, który oni mają na rynku w tej chwili, nie?

Mientras to widzę jako konsekwencje tego to po prostu nic, nic wielkiego, jakby nie zmiana strategii, ale konsekwencja tego, że muszą hedgeować o pewnej AI, nie?

Co prawda dalej bardziej pchają właśnie swój brand, to co Sebastian powiedział, copilot, niż to, że mają odpowiednich bedłach, nie?

Bo jednak AWS dalej idzie w stronę whatever AI, bedrock, tam będzie, nie?

Kilka uwag.

Pierwsza może taka, że nie wiem czy... nie wspomniałem tego, ale do tej pory to chyba Mistral był kojarzony z tym, że to były modele tak zwane open source, bo natomiast w momencie wypuszczenia tego...

To jest taka delikatna zmiana na głównej stronie, która przynajmniej się pojawiła, to fakt.

Tak, tak, tak.

Mistral Large to już nawet nie udaje, że jest jakiś tam open source, nagle się okazało, że no jak już idziemy z taki duży model tak zwany flagowy, to to już nie będzie open source.

Ale dobra, to było przewidywalne, nie pastwili mi się dalej.

Może tak, kolejna ciekawa uwaga.

Tutaj wyszedł, nie wiem czy to zamierzamy w sposób czy nie, ale taki przytyczek w nosa AWS-a.

Bo jakiś tydzień wcześniej AWS zaczął się chwalić, że właśnie na bedroku, że już są te otwarte Mistrale, każdy może korzystać.

Mistral, ukochana firma Unii Europejskiej, dogaduje się, jest w ogóle zgodna i nie tylko ma wsparcie języków, ale ma też wsparcie, to jest tak się nazywa, kontekstu nowego języku, więc tam się można dowiedzieć jakiejś powiedzmy takiej wiedzy specyficznej.

I co, i tydzień później i w ogóle AWS to zapowiedział, że to będzie, w sensie to już jest partnership, wiesz, one się tam pojawią na tym bedroku, ale jeszcze ich nie ma.

I tydzień później wchodzi Microsoft, cały na Microsoftowo i nie dość, że tam właśnie wchodzi cały model nowy, zupełnie flagowy Larch, którego na tym bedroku, z tego co wiem, chyba nie ma i na razie nie będzie, to jeszcze dodatkowo nie jest tylko zapowiadane, tylko wchodzi już, jest już.

To też taka ciekawostka, więc wyszedł taki przyczyk w nos, powiedziałbym.

Kolejna ciekawostka jest taka, że jeżeli chodzi o Mistrala, to nie tylko oni ogłosili, że to jest na Azure i że tam będzie dostępne w ramach Microsoftu, czyli Microsoft sobie hedgeuje, o tym jeszcze do tego wrócę, ale też ogłosili swój własny LeChat i swoją własną LePlatform, co oznacza tak naprawdę, że próbują się tutaj otwierać, że tak powiem, wielokanałowo i też nie będą się wiązać się z Microsoftem, na razie tylko i wyłącznie, ale będą próbowali grać troszeczkę szerzej.

To jest też ciekawe.

A odnośnie tego hedgeowania, to myślę, że to są dwa takie malutkie komentarze.

Jeden to będzie taki shameless auto-promotion, bo ja wczoraj napisałem artykuł, czy wczoraj opublikowałem artykuł dokładnie na ten temat, pewnych przewidywań, jeżeli chodzi o GenAI, i tam jest takie moje przewidywanie, bo ja cały czas się podpisuję i będę się tam go mocno trzymał, czyli to jest to, że specyfika rynku, jeżeli chodzi o GenAI, to oznacza, że tu nie dają nagrody za drugie miejsce.

I właśnie, więc w związku z tym, stąd między innymi, Microsoft oczywiście widział to znacznie wcześniej niż ja, to jest oczywiste, i teraz dlatego oni chcą mieć ten swój własny brand, żeby ten brand był kojarzony z najwyższą jakością, a jeżeli się okaże, że faktycznie ktoś wyjdzie jakimiś przełomowymi, przełomową technologią, to żeby udało się łatwo podmienić tak naprawdę coś, co się już nie sprawdza, czyli potencjalnie GPT-4, właśnie sobie na takiego Mistrala.

A Mistral to jest świetne zagranie właśnie przez to, że to jest firma z Unii Europejskiej, że ona tutaj w Unii Europejskiej jest dobrze zamocowana, jest korzystnie widziana przez Unię Europejską, i w związku z tym prawdopodobnie będzie u jej troszeczkę łatwiej rozgrywać kwestie związane z regulacjami.

Ja tylko tak wejdę, bo aż sprawdziłem, wszedłem sobie w tle na stronę Mistrala, i pierwszy tak tagline jest Open and Portable Generated AI for Devs and Businesses, a poniżej jest takie małe Committing to Open Models.

Wiem, że to jest ciekawe, bo to Committing to Open Models ma taki sad komentarz, to jest wiadomość marketingowa, że otworzyliśmy nasze super modele 7B i tak dalej, czyli te stare, a pod spodem jest Mistral Large.

Cały czas będą dostępne.

Myślę, że tutaj wiele firm robi podobnie, bo Google zrobiło bardzo podobny zabieg, jeżeli chodzi o Gemini.

No dobrze, słuchajcie, to ja będę kontynuował z nowościami, bo Cloud 3 wyszedł, to był model, na który wiele osób czekało, tym bardziej, że tam jest wiele zmian ze strony Antropica, czyli między innymi przede wszystkim, jak sobie sprawdziłem, to oni się chwalą, że już jest ogólnie otwarty, bo przypomnę, że był zamknięty, w 159 krajach, i chyba to jest jedna z największych też zmian, czyli można szeroko z tego korzystać.

Mamy trzy rodzaje modeli, czyli też Small, Medium, Large, to się ładnie nazywa, mniejszego Heiku, Sonnet i Opus, i Antropic pochwalił się, i właśnie to, na co czekaliśmy, to były metryki, no i ten model faktycznie radzi sobie bardzo dobrze, nawet dużo lepiej niż niedawno też wypuszczone Gemini Ultra, o którym też wspominaliśmy, no i też oczywiście znacznie lepiej przy wielu metrykach niż GPT-4, więc myślę, że tutaj odsyłamy do artykułu, natomiast jedna rzecz, którą na pewno, słuchajcie, którą moją uwagę przykuła, to jest, tam jest jeden wykres Recall Accuracy, i może postaram się to wytłumaczyć, który jest generalnie rzecz biorąc, wychodzi, że to jest tak model idealny, zaskakująco idealny, nawet zaskakujący nawet dla badających się okazało.

Spróbuję to powiedzieć nietechnicznymi słowami, czyli co ten wykres pokazuje.

On pokazuje coś takiego, że jeżeli badamy, znaczy generalnie rzecz biorąc, badamy recall, czyli zdolność danego systemu wyszukiwania lub modelu sztucznej inteligencji do wyszukiwania konkretnych, istotnych elementów z danej kolekcji, która jest, tudzież model, wewnątrz modelu, tak, i możemy sobie to wyobrazić w takiej zasadzie, że mamy ogromną skrzynkę z ogromną ilością kolorów piłeczek i naszym zadaniem jest znalezienie wszystkich zielonych piłeczek na przykład.

I jeżeli mamy 100%, to w dowolnej konfiguracji takiego wielkiego, ogromnego pudła z ogromną ilością kolorów wyciągniemy wszystkie zielone.

I faktycznie Cloud 3 potrafi to robić i potrafi bardzo dobrze odnajdywać bardzo nietuzinkowe i nawet skomplikowane właśnie frazy.

To się ładnie nazywa bodajże z...

Panie, po polsku z igłą stogusione, tak?

Czyli...

Tak.

To się nazywa w ogóle haystack.

Needle in the haystack, przepraszam, dokładnie, metryka.

I Cloud zaskakuje, bo on ma 99%, nawet przy okienku tokenowym 200 tysięcy, a w tym oficjalnym ogłoszeniu jest, że mamy nawet milionowe okienko dostępne, jeżeli tylko ktoś jest bardzo ciekawy.

I on potrafi...

Jeszcze jedna rzecz i już kończę.

Cloud 3 zaskoczył, że on potrafi znaleźć ten igłę stogusiona, czyli tą zieloną piłeczkę, nawet w miejscu, w której tej zielonej piłeczki nie powinno być.

Czyli my wstrzyknęliśmy innymi słowy, daną frazę w tekst i potrafi powiedzieć a, to nie pasuje.

I w sensie model potrafi powiedzieć to nie pasuje do kontekstu, to jest chyba tutaj dziwnie umieszczone.

Więc tym zaskoczył Cloud 3 i to między innymi chodziło po Twitterze.

Wasze opinie i wasze wrażenia.

Z tego się wzięło to, że ktoś mi powiedział, że Cloud tam osiągnął AGI i jak sobie skręciłem to właśnie ktoś wyciągnął to, bo ten model faktycznie odpowiedział o tym.

Czyli innymi słowy wśród klocków Lego znalazł zieloną piłeczkę i powiedział, hej, mam klocki, ale mam piłeczkę.

Mówili, tej piłeczki nie powinno być, co się stało, no i ktoś tam, o, AGI, AGI, osiągnął świadomość.

Tak że jest to chyba jedyny taki właśnie też wart, powiedziałeś to, ale to warto podkreślić, że oni powiedzieli, że mają to milionowy token window, który bardziej warto podkreślić jak szybko, jak te techniczne parametry nie są już wyróżnikiem, bo ile...

Nie są ograniczeniem.

To jest ogromne okno, tak.

Ale chodzi o to, rozmawialiśmy dwa tygodnie temu i było, że Gemini to potrafi i że w ogóle to Google osiągnął i tak dalej, nie?

No i to się okazuje, że wiesz, za chwilę wszyscy będą mówili milion, milion, milion, nie?

Więc te parametry techniczne...

Do tego, Tomku, co mówisz, to jeszcze jedną tylko rzecz chciałem dodać, że żeby uświadomić, co to jest milion, pomyślcie, jak dużo na przykład waszych projektów przekroczyło na przykład właśnie milion jakby to powiedzieć wyrazów, tak, czyli powiedzmy tych instrukcji w naszym kodzie, więc można wrzucić ogromne już projekty nawet jako jeden int.

Ja nie pracowałem jeszcze z Cloud, to może mało mam do powiedzenia, ale jedną rzecz, którą widziałem, tylko tak wychwyciłem właśnie w celebie tych wszystkich wiadomości i tak dalej, jeden człowiek wrzucił jak niewiele mu potrzeba do tego, żeby się dostosować do tego, co ty robisz, nie?

Bo on powiedział okej, wrzuciłem w to okienko trochę swoich tweetów i tekstów i tak dalej i on już pisze tak jak ja, nie?

I no nie wiem, będę musiał przetestować, ale dużej opinii w tej chwili nie mam.

Kolejny gracz, inna strategia, rozszerzałem się na ten pytanie, jaki będzie ich wyróżnik teraz, tak?

Kilka rzeczy mi się bardzo w Cloudie spodobało.

Tak, pierwsze spodobało mi się, że faktycznie był natychmiast dostępny w bardzo wielu miejscach, tam Perplexity było Clouda, API no oczywiście Workbench, w ogóle tam Wojtek powiedział, że w 159 krajach jest dostępny, niestety nie wszędzie jako ta aplikacja czatowa, czyli Cloud AI z różnych pewnie przyczyn, ale jako Workbench jest, nie patrzyłem czy tam nie ma jakichś ograniczeń za zasilanie tego kredyt sami, ale to trzeba byłoby zobaczyć.

Jest bardzo drogi, ten największy model jest bardzo drogi, to trzeba przyznać.

Ale chodzi o bardziej ograniczenia geograficzne.

Okej.

A druga rzecz, która mi się tam strasznie podoba i to jest warte podkreślenia, to jest właśnie to, że to jest bardzo dobry model, chyba najlepszy, jeżeli chodzi o dawanie szczegółowych instrukcji.

Czyli jeżeli dajesz instrukcje, które są wieloetapowe, każesz mu zrobić jakąś pętlę, jeżeli coś, to coś, to nawet GPT-4, który chyba do tej pory był najmocniejszy, czasami potrafił zrobić bardzo głupią rzecz, czyli powiedzieć, a teraz przychodzę do kroku pierwszego i koniec, i się wywalić.

O innych modelach nawet nie wspomnę, natomiast tutaj pod tym względem znacznie lepszy jest Cloud, a ostatnia rzecz, która mnie strasznie zaciekawiła, ale jeszcze nie miałem okazji sprawdzić jej w praktyce, to jest to, że w ramach generowania prompta można mu tam dorzucić więcej niż jeden obraz.

I potem można go prosić na przykład o porównywanie tych obrazów, znajdywanie różnic i tak dalej.

To jest ciekawa rzecz, bo do tej pory z tego, co kojarzę, we wszystkich dużych modelach było ograniczenie, że właśnie możliwość wrzucenia tylko i wyłącznie jednego obrazu jako input.

A więc to jest też taka mała ciekawostka.

Natomiast poza tym, tak, ja się nauczyłem tych wszystkich metryk, jakie są, bo się okazało, że akurat Cloud tutaj aspiruje do tego, że chyba w prawie wszystkich metrykach wypada lepiej i tam zamiata podłogę pozostałymi modelami.

Tam w przypadku Mistrala to chyba było tak, że tam Dokładnie.

W przypadku chyba MLU chyba tylko i wyłącznie był jako numer jeden i tym się wszędzie chwali, gdzie się tylko i wyłącznie dało.

A co cię zaskoczyło może, Sebastian, z tych metryk?

Bo to też na nie patrzyłem.

Co cię zaskoczyło?

Wiesz co, ja muszę kiedyś się przyczytać tym niektórym testom.

No tam chyba najbardziej spektakularny improvement był w tych metrykach matematycznych.

Matematyczny rezoning, matematyczne rozumienie problemu i tak dalej.

Chciałbym zobaczyć, jak wygląda w praktyce ten test, bo patrzyłem na to tylko i wyłącznie z perspektywy już samych wartości.

Jak to powiedziałeś, to wrzucę coś, co jest niezwiązane z Cloud, ale według mnie jest ciekawe.

Jest ekipa Steven Wolfram, bo to mnie wytrygierowało do tego.

On napisał bardzo fajny tekst Can AI Solve Science?

5 marca opublikował, podrzućmy link, i właśnie dyskutuje o tym.

Czyli na ile możemy używać AI w zastosowaniach typu matematyka i tak dalej, na ile się to będzie sprawdzać.

Polecam.

No i chyba ostatni news, powiedzmy z tego, Gen AI oficjalnie, czyli słuchajcie, firewall dla LLM-ów.

Sebastian, może ty byś chciał skomentować.

O, nie wiem, czy powinienem.

Generalnie Cloudflare wypuścił coś takiego jak firewall dla AI.

No i cóż, brzmi ciekawe, co to w ogóle może być.

I oni się tak tym reklamują, to, że to jest coś, co stawiasz in front of LLMs to identify abuses before they reach models.

No ja się w tym momencie tak naprawdę zacząłem zastanawiać, to czy to jest bardziej tak, że my patrzymy na ruch, który przychodzi od strony użytkownika, żeby na przykład nie dać zdeosować tego modelu, bo potem się okazuje, że w tej całej specyfikacji, czy tam w dokumentacji, czy w tym całym ogłoszeniu jest na przykład to detect vulnerabilities and provide visibility to model owners.

Więc bardziej to zaczyna wyglądać, jakby chodziło jednak o analizę samego modelu, czy to w samym modelu nie są ukryte jakieś flows.

To jest nawet tam napisane konkretnie.

Więc wydaje się, że trochę tam jest marketingowej papki, że to ma robić wszystko we wszystkim, jeszcze walnę liniotop tego waspatem dla LLMs, że to w ogóle też działa w tym temacie, i oczywiście rate limiting, i oczywiście sprawdzenie unauthorized access, i oczywiście sensitive data detection, i na wejściu, i na wyjściu.

A więc w sumie takie trochę narzędzie, które robi wszystko, ze wszystkim, i w każdym kierunku, no cóż, dobra, zobaczymy.

Zobaczymy, jak to będzie faktycznie wyglądało.

I co zobaczymy, bo też żaden z nas tego nie dotykał, ale ciekawe jest, ja bardziej obserwuję dynamikę, nie?

Cloudflare się po prostu szybko odnalazł.

Cloudflare to jest taka firma, która tam też rozwija sobie różne rzeczy z boku, niektórzy z nich nie korzystają, niektórzy nie.

Kiedyś to, wiesz, mieli swój biznes, mi się spodobało, jak oni zaczęli rozwijać ten biznes dookoła chmury jednak, takim pod kątem aplikacji bardziej.

Swoje znaleźli, nisze, zastosowanie i tak dalej.

To ogłoszenie to wygląda dokładnie jak web application filtrowanie, takie tylko dostosowane do LLMs.

No, coś więcej, coś więcej.

Tak, tylko z tych wszystkich claimów stawiałbym, że to działa najlepiej, to czy on analizuje ten model, to nie wiem, nie?

Ale bardziej ja to widzę ciekawe dlatego, że Cloudflare po prostu rusza się szybko, nie?

Czyli znalazł sobie niszę, nie jest dostawcą tych LLMów, nie jest tak jak, wiesz, AWS, Microsoft nie posiada tej wielkiej infrastruktury, nie?

Ale znalazł sobie miejsce, gdzie wskakuje, nie?

Kolejna rzecz, którą napisałem w tym artykule, no się będę... dotyczy tego, że to będzie prawdopodobnie brak zaufania dla modelu i testability samego modelu będzie prawdopodobnie jednym z największych blokerów adopcji, jeżeli chodzi o LLMy.

Tutaj, jak patrzysz na kierunek Cloudflare, to trzeba trochę zacząć rozumieć też dynamikę całego rynku właśnie, tak jak mówisz, nie?

Bo do kogo to jest adresowane?

To nie jest adresowane do ludzi, którzy pracują w AI.

To jest adresowane, kto jest odbiorcą Cloudflare, nie?

Firmy.

Firmy, dokładnie.

Enterprise, ale kto w tych firmach, nie?

Security, nie?

I teraz...

Ale nie tylko security, wiecie, data protection i tak dalej, tak?

Bo tam mamy chociażby warstwę zabezpieczającą przed wyciekiem PII, czyli dla osób, które nie wiedzą, co ten skrót oznacza, personal identifiable information, czyli dane sensytywne.

To, co Sebastian powiedział, a ja strasznie przyszedłem w słowo, tak, to jest generalnie bariera, nie?

Teraz, znając Enterprise, ta bariera będzie długo usuwana.

Dlaczego?

Bo adopcja wiedzy, zorientowanie się i tak dalej, no to trwa u tych ludzi, nie?

Tak jest tylko to.

Chyba sama natura LLM-ów, to, że tam język naturalny jest tym językiem wymiany informacji, brak determinizmu, probabilistyczna natura.

Obserwując ten rynek, po prostu wiem, że nawet jak to są prostsze rzeczy, patrz, chmura, nie?

To są lata, zanim oni dojdą do wniosku, jak z tym pracować, nie?

Teraz, jak wchodzimy w coś takiego jak AI, to w ogóle nikt nie wie, jak to ogryźć.

Właśnie to, co Wojtek powiedział, PII, albo nie wiedział, kto ma jakieś dane i tak dalej, nie?

Czy to ogarniają dobrze?

Teraz będę trochę krytyczny o temacie security, możemy sobie ten...

Według mnie i tak firmy tego nie ogarniają, nie?

Ale to, co robią, to kupują dużo zabawek, nie?

Jak jest w takim enterprise i ktoś przyjdzie do Ciebie i zrobi Ci sales pitch, a oni to zrobią pod tytułem tu jest web application firewall, który obsługuje AI, blokuje nieco zapytania, nie wypuści żadnych Twoich tajnych danych i tak dalej, i tak dalej, to zostanie kupione.

Ale Tomek, nie tylko to, bo to jest tak, jesteś dowolną firmą, tak?

Szczególnie jeżeli chodzi o instytucje, które mają te dane powiedzmy delikatne, czyli szczególnie wszelka okolica fintechów i medtechów, ale też edukacji i tak dalej.

Jeżeli masz te dane, to umówmy się.

To jest też ruch wyprzedzający, wydaje mi się, do nadchodzących legislacji, bo będziesz mógł powiedzieć, my mamy vendora, który nam zapewnia bezpieczeństwo.

Więc myślę, że Cloudflare tutaj bardzo dobrze wszedł i zamiast samemu próbować się wycertyfikować, to jest tak samo jak w pewnym momencie, prawda, z tego Cloudflare też jest znany, że możesz mieć od razu infrastrukturę, która jest odpowiednio certyfikowana i teraz dodajemy kolejny produkt, czyli LLM-a tak naprawdę.

Ja bardziej się dziwię, szczerze, że Microsoft, AWS i inni jeszcze nie wyszli z czymś takim.

Nie mówię, że zrobili blogie, ale że nie wyszli z hasłem, tu jest plugin, który rozwiązuje problemy z bezpieczeństwem.

A dzieje się.

W sensie na przykład w Bedrocku jest już Gartla, jest jako jakieś tam preview, więc podejrzewam, że inne firmy też tu gdzieś na jakimś etapie to mają.

Tak, tak, tak.

I to wyjdzie na pewno, bo to jest rynek do zaadresowania i oni wiedzą, że będą musieli to zrobić.

Tyle.

Fajnie powiedziałeś to wcześniej, że to właśnie tak działają Enterprises.

Czy jest jakiś tam problem i teraz albo próbujemy wyobserwować ryzyko poprzez to, że okej, kupiłem od uznanego wendora rozwiązanie, więc jak się coś spaprało, to sorry, ale to ten wendor nie dał rady.

Tak zwane kupowanie piecząteczki.

Czy jest po prostu budżet?

No i w ramach tego budżetu no to patrzymy, kto daje coś najlepszego.

Nieważne, że to coś najlepsze jest, być może jeszcze bardzo słabe, no ale przecież coś musimy kupić.

Bo tutaj właśnie trzeba zrozumieć jedną rzecz, nie?

Może ktoś mnie nie polubi za to, co powiem teraz, ale w przypadku Enterprise bezpieczeństwo często nie sprowadza się do tego, żeby było bezpiecznie, tylko do tego, żebym dało się odhaczyć checkboxy, gdyby ktoś przyszedł i je sprawdził, nie?

Więc jeżeli Cloudflare będzie mi odhaczał checkboxy, typu robię takie rzeczy, i teraz wiesz, bo na przykład jak, jeżeli ktoś nie był przy tym...

Absolutnie, to tak działa dla osób, które nie wiedzą.

Tak, jeżeli ktoś przy tym nie był, nie?

Jeżeli mamy jakąś normę ISO, odność bezpieczeństwa, to ona nie mówi, że ja robię to skutecznie.

Ona mówi, że ja to robię.

Może inaczej, te normy specjalnie nie są projektowane tak, żeby ci nie powiedzieć PCLD i możesz przejść i słuchajcie, mam to, mam tak ustawionego firewalla i tak dalej, tylko normy, żeby spełniać w ogóle założenia tego wyścigu technologii są dostosowane tak, że tak naprawdę to jest risk assessment, czyli czy ryzyko i risk appetite danej firmy tak naprawdę.

I tam czasami trzeba się wczytać w language, w tak zwany język, przepraszam, bo dostaliśmy uwagę, że dużo wrzucamy anglicyzmu, nie?

Czy ty podjąłeś wszystkie rozsądne kroki, żeby się zabezpieczyć?

Nie powiedziałem, czy one są skuteczne, ale czy je podjąłeś, czy podjąłeś wysiłek zabezpieczenia się, na przykład nasze RODO to tak określa, nie?

No i tak, no, podjąłem wysiłek, mam kluczy.

Więc to jest, oni dobrze rynek adresują, po prostu znają go i wiedzą, jak to będzie działać.

Cool, ale i tak, no, trzeba to odnotować, pojawia się infrastruktura taka security dla AI.

Zobaczymy, jak to pójdzie dalej.

Co innego słychać, słuchajcie, bo to nie koniec ciekawostek.

No jest jeszcze jedna taka historia związana z, którą wygrzebałem gdzieś tam z odmianów internetów, związana z taką małą siecią sklepików, może natknęliście się przypadkiem, nazywa się to Żabka, to zaledwie na każdym rogu są takie sklepy w Polsce.

I oni od czasu do czasu wyskakują z jakimiś takimi ciekawymi newsami technologicznymi odnośnie pomysłów, które mają.

Więc mamy sklepy Żabka Nano, ostatnio gdzieś w Warszawie chyba na dobrej pojawiły się roboty robiące hot dogi, a ostatnio chyba w zeszłym tygodniu pojawił się news odnośnie tego, że Żabka kontynuuje testy związane z dostarczaniem zakupów przez roboty.

Czyli gdzieś były, już była faza testów, gdzie oni chyba w Warszawie gdzieś na plażę komuś dronami, drogą powietrzną dostarczali, natomiast teraz pojawiły się nawet jakieś filmiki właśnie z takim robocikiem jeżdżącym, który tam bodajże rozwija do 20 km na godzinę.

Czyli można powiedzieć, że jest taki ruch, no, okej, ktoś już coś takiego robił, bo tam w Stanach się pojawiały, pojawiają, są już takie firmy, które tego typu testy przeprowadzały, to na znacznie większą skalę, natomiast jak dla mnie, to jest to całkiem budujące, że w Polsce jest też firma, która się takimi rzeczami, tak jeszcze nie boi, do tego typu rzeczy podchodzi.

Z jednej strony jest to troszeczkę propaganda, bo tych Żabek Nano jest chyba bardzo mało i to potwierdzam, że te testy robotów to też jest bardziej taki krok chyba bardziej na pokaz, natomiast ja poświęciłem chwileczkę, żeby się trochę przyjrzeć, jak to jest robione.

W sensie, no bo tak, no, żabka, jeżeli to jest rzeczywiście branża po prostu taka retailowa, sklepiki, to też nie do końca kojarzy się z innowacją, czyli firma musi mieć w sobie takie capabilities, żeby posuwać się do przodu.

I stwierdziłem, że rzucę troszeczkę okiem i okazało się, że żabka ma w sobie coś takiego, co jest, nazywa się to Venture Studio i to jest taki inkubator, może nawet nie do końca inkubator, tylko takie studio poszukujące start-upy, poszukujące firmy, które mogą coś fajnego dla żabki zrobić, mogą, sama współpraca, jeżeli na przykład żabka zainwestuje, może dać wiele obu stronom.

I taką, jedną z takich firm jest Light E-Commerce, Light Tech, który właśnie robi m.in. takie rzeczy związane z dostawą, oni, w ogóle cały ten brand już bodajże to został przygotowany właśnie we współpracy z Light Techem.

I co ciekawe, ten robot, który jest na tych zdjęciach, który jest na filmiku, to też nie jest coś, co powstało gdzieś tam w jakichś laboratoriach żabki czy czymś takim, nie?

To jest też robot, który jest kupiony, więc tu raczej ta wartość dodana to jest właśnie integracja i wpięcie tego w ten cały, powiedzmy tutaj, ekosystem żabkowy, bo tam producentem tego robota jest Delivery Couple, to jest robot, który był testowany przez wiele innych podobnych tego typu firmy na świecie.

Natomiast muszę Wam powiedzieć, że dla mnie to jest budujące, w sensie fajnie, cieszę się, że to nie jest firma, która po prostu chce być kolejną siecią groceries gdzieś tutaj w tym środkowoeuropejskim kraju, tylko faktycznie widzi to, że jeżeli zbuduje taką umiejętność, zdolność bycia tą najbardziej innowacyjną na rynku, to faktycznie może się wybić, bo jest na to space.

I rzeczywiście trochę wygląda, że kopiuje to, co się już wydarzyło na Zachodzie, ja nie mam nic przeciwko temu, jeżeli będą kopiowali skutecznie, niech kopiują.

To co nasz nieoficjalny, nieukonstruowany redaktor prowadzący tylko zaznacza, że nie współpracujemy z firmą Żabka.

Żeby nie było.

Nie jest to odcinek sponsorowany.

Nie dostaliśmy żadnych żabsów za ten odcinek.

Żabsów nie, ja nawet nie jestem żabsem, więc musicie mnie uświadomić kiedyś.

Wiesz co, tak, kilka rzeczy.

Jeden, tak, to jest pozytywne, to znaczy to, że taka Żabka postanawia robić takie rzeczy, nie?

I ma taki tam kawałek, który robi jakiś research, wymyśla rzeczy i tak dalej, nie?

To, że kopiują, cała Europa kopiuje.

Chyba kiedyś rozmawialiśmy o tym.

W Europie się kopiuje z pomocy zachodu, które działają, które nie działają.

Są firmy, które zbudowały biznes na tym, że budują startupy, które są kopią zachodnich.

To jest fajne, nie?

Ja w ogóle myślałem, że te roboty są robione w Polsce, bo w Polsce jest startup, który robi takie roboty.

Bo to kojarzę, bo jeden z VC to inwestował, widziałem, czymś wpadło w oko.

Bo po prostu budują dokładnie takie roboty tylko w Polsce, pod Europę, siedzi w zarządzaniu i tak dalej.

Te Żabki, by the way, według mnie, nie znam ich strategii, gdzieś tam współpracowaliśmy chwilę, ale przy całkiem innych rzeczach.

To jest kawałek budowania wizerunku, bo oni mocno adresują młodą część społeczeństwa, jednak.

Ma to swoje wady i zalety, ale to jest ten kawałek taki budowania wizerunku, też jesteśmy cool, nie?

Że mówi się o nich, mówi się o tych nanobotach, nanosklepach i tak dalej.

Ale na końcu też pamiętajmy, że taka sieć retail, no to są małe marginy, nie?

Więc jeżeli z tego wyjdzie cokolwiek, co pozwoli im zwiększyć margin nawet o mały procent, ułamek procenta przy ich skali i w tej przestrzeni, to to jest duża rzecz.

Oni po prostu, to jest się przekłada na pieniądze, nie?

Więc dla nich posiadanie takiego Venture Studio, według mnie, wyprodukuje, wiesz, dziesięć jakichś flasz i pomysłów i jeden, który przełoży się, wiesz, te kasy będą szybciej działały albo będzie ten automat do hot dogów albo coś, co powoduje, że nie mają kosztu obsługi, nie?

I oni to wyprodukują.

I ja tam czasami bywam, no to wiesz, to jest też ciekawe, bo przeważnie jestem jedynym, który idzie do tego samoobsługowego terminalu, nie?

Wszyscy stoją w kolejce.

To jest taka ciekawostka w zachowaniach.

Tutaj, jeżeli chodzi o te roboty, ja nie jestem żadnym do nich, to z takich dużych rzeczy to Domino's Pizza używało albo używa ich w Stanach do dostarczania pizzę.

Oni mieli jeszcze taki twist, by the way, że ta pizza się dopiekała w tym robocie, nie?

Jest kilka takich wideo, gdzie tych robotów się zjechało w jedno miejsce bardzo dużo, stłoczyły się na przejściach i nie umiały rozjechać, ale widziałem ostatnio, i to jest ciekawe, bo widziałem ostatnio, to było wideo, które było gdzieś z Azji, gdzie generalnie te roboty były human operator, nie?

Czyli one sobie jadą, ale za każdym takim, za dziesięcioma robotami siedzi jeden człowiek i on się upewnia, że jak jest problem, to wiesz, bierze joystick, po prostu przejeżdża tam i tak dalej, nie?

Więc to gdzieś się tam rozwija.

Dalej według mnie delivery boys na rowerach będą dobrą alternatywą do tego.

Ale spokojnie kupują.

To jakieś nisze na jakichś kampusach, tego typu rzeczy, ale w powszechnym użyciu te roboty tam mają chyba do dwóch kilometrów zasięgu.

Nawet jakby ten zasięg był zwiększony pięć razy, to ciągle i tak nie jest praktyczny.

Nasze miasta nie są do tego zastosowane.

No właśnie, bo ja chciałem powiedzieć, że to jeszcze kwestia miasta, no i też kwestia, żeby tego robóciki, żeby te robóciki, mówiąc prosto, nie znikały po drodze.

Wójtek jest z Krakowa, tamten robot musiałby pod ziemią pewnie jakoś zrobić.

To jest właśnie też taka kwestia, jeszcze trochę, bo to odnośnie kupowania pomysłów, nie?

Jest kwestia taka, akurat wy byliście, na pewno, podejrzewam, przynajmniej w Stanach, nie?

Na przykład w Stanach budowa miast jest inna, nie?

Ja totalnie widzę te roboty jeżdżące w miastach, dlatego, że one...

Tak, w downtown muszą operować tylko skręć prawo, skręć lewą, przejazd w jednym miejscu zawsze taki sam i chodnik ma szerokość taką, nie?

Gdzie tutaj, ja przejdę się tutaj u siebie ulicą, nie?

No, na starówkach niektórych miast to sobie, wiecie, nie wyobrażam.

Tu jeszcze schody i tak dalej.

Tak, to jest infrastruktura, ale w Stanach jak najbardziej, bo one w downtown mają, muszą jeździć tylko po kwadratach, nie?

W końcu dojedzie.

I się zgadzam, że ten robot tu u nas jest pewnie głównie publicity, ale na przykład osobiście się dziwię, że ta żabka nano jako sklep nie była bardziej nagłośniona, bo to jest, uważam, naprawdę ryzykowny ruch, ale z drugiej strony te sklepy działają.

Może nie w jakiejś wielkiej skali, ale działają, a to jest gruba rzecz.

No, chyba była nagłośniona, bo to przynajmniej w mojej bąbelce informacyjnej była dość...

Było dość głośno o tym.

Interesowałeś technologią za tym i to nie są trywialne technologie.

No, ale nie są.

Ale wiesz, nawet ja powiem anegdotycznie, mój syn sam przyszedł do mnie z tym, że coś takiego istnieje i że chciałby spróbować, nie?

Więc dotarło to do niego.

Może nie jesteś grupą celową?

Słuchajcie, na zakończenie może jeszcze jakiś news.

Sebastian, co ty byś miał?

Mamy, mamy, mamy, bo to na naszym rodzinnym rynku się znowu coś ciekawego wydarzyło.

I tutaj pewnie też będzie dużo żartów, dowcipów, ale nie absolutnie niezłośliwych.

Maciej Ganiserowicz, który działa czasami pod tak zwanym, pod brandem DevStyle, ogłosił wyniki swojego nowego sprzedaży, swojego nowego kursu online'owego.

I co jest w tym interesującego?

Dlaczego jest to interesujący wynik?

Maciek jest jedną z niewielu osób, czy też niewielu takich powiedzmy firm tej skali, bo prowadzi swoją firmę, która powiedziałbym w sposób no, regularny sprzedaje kursy w tej skali, bo tu już mówimy w sprzedaży o czterech milionach złotych.

To są kursy oczywiście w IT, to są kursy no, profilowane raczej na tych takich early stage entry levels.

To są kursy no, bardzo różne, bo tam były kursy architektoniczne i front-endowe i chyba dla testerów i dla db-masterów i tak dalej, i tak dalej.

Natomiast to jest w ogóle ciekawy temat.

My nie mieliśmy jeszcze swojego odcinka Coffee'u właśnie, jeżeli chodzi o prowadzenie biznesów na kursach online, czyli na takim enablemencie, bo to też jest jakaś ścieżka, to też jest jakiś pomysł.

Wydaje mi się, że Maciek jest jedną z tych osób, które sobie tą ścieżkę wytycza i bardzo ciekawe są mechanizmy na których on ten swój biznes opiera.

Ja może jeszcze kilka takich, zanim przejdziemy do dyskusji, jeszcze kilka takich ciekawych wątków, bo też może nie każdy wie, ale tak, Maciek, te kursy, to nie jest to, że prowadzi je Maciek.

Maciek jest tam bardziej w tym momencie powiedziałbym wydawcą czy koordynatorem, on angażuje ekspertów, którzy mu te kursy prowadzą, no i oczywiście daje swój brand, daje swoją markę, daje swoją rozpoznawalność, o której też jeszcze pewnie za chwileczkę.

Jeżeli chodzi o ilości, ile ludzi te kursy kupuje, to z tych liczb, którymi chwali się sam Maciek, to teraz w sprzedaży to tam chyba około dwóch tysięcy osób kupiło ten najnowszy kurs.

Najnowszy kurs jest na temat domain-driven design, tu nie będziemy wchodzić w temat, mamy swoje opinie, ale na przykład kurs, który nazywał się Legacy Fighter, czyli do walki powiedzmy z długiem technicznym i z Legacy, to już ponad cztery tysiące użytkowników.

Kurs Gita, który też Maciek sprzedaje, to jest ponad pięć tysięcy.

Architektura na froncie, 3,6 tysiąca.

A druga nowoczesnego architekta, która chyba była największym hitem, który Maciek sprzedawał, to jest ponad dziewięć tysięcy sprzedanych egzemplarzy.

Oczywiście nie wiemy, ile z tego poszło w sprzedaży, to się pewnie sprzedaje cały czas, więc można powiedzieć, że całkiem nieźle.

Jeżeli chodzi o ceny tych kursów, okej, tutaj na przykład sprzedaż tego najnowszego, to jest dwa tysiące złotych.

Natomiast Maciek ma taki tam swój sklep, DevStyle Sales CRM, ale tam chyba jakieś błędy są, bo jak się wejdzie na stronę, to niektóre z tych kursów są za czternaście tysięcy złotych, ale jak się już doda do koszyka, to wtedy ta cena to jest dwa tysiące osiemset, więc uważam, że to jest albo błąd, a jeżeli to nie jest błąd, to nie rozumiem tej strategii.

I teraz patrząc na te wszystkie kursy, to tak naprawdę ciężko jest tam znaleźć coś, co nie zażarło, a mówimy tu już o jakichś chyba ośmiu czy dziewięciu pozycjach.

To chyba jedyny pomysł, który mu chyba nie do końca chwycił, to jest DevBytes, czyli takie króciutkie kursy, bo coś się tam pojawia, ale chyba jakoś to specjalnie nie żyje.

Natomiast fajna sprawa, znaczy fajnie, że to się dzieje, fajnie, że mamy tego typu graczy na tym naszym polskim rynku, bo uważam i z tych, których ja kojarzę, to tylko i wyłącznie w domenie security, tam zaufana trzecia i niebezpiecznik, faktycznie działają w podobnej skali, czyli mówimy o podobnej ilości sprzedanych egzemplarzy i przychodu.

Dobrze, ja Maciek znalazłem się.

To jest dla wszystkich autorów i wydawców.

Taki disclaimer, zanim tam zacznę coś innego mówić, bo ja go znam osobiście, pozdrawiam Maciek, jakbyś nas obejrzał przypadkiem, choć wątpię.

Ten sklep to nie jest błąd, to tak swoją drogą, żebyś wiedział, to jest strategia wszystkich tych sklepów, tam wchodzą kwestie podatkowe, po prostu nie możesz...

To jest pokazanie maksymalnej ceny, trochę jak w hotelu.

Czasami się wchodzi, jest taka nalepka, ile pokój kosztuje i to są maksymalne ceny tego pokoju.

To mogę ci potem podesłać materiał, dlaczego tak to działa, ale to nie jest przypadek.

Wszystkie sklepy tak robią, mają po prostu odwaloną taką cenę w sklepie, a potem po ile sprzedasz, to już jest twoje.

To jest kwestia podatkowa.

Tak mamy w Polsce.

Czyli jeżeli on ten kurs wcześniej nawet, nie wiem, sprzedawał 14 tysięcy, to ja, kurde, gratuluję.

Nie, on go nie sprzedawał.

To jest po prostu ze względów podatkowych, prawa i tak dalej, masz wystawiony w takiej cenie, w sensie, nie mogą się do ciebie powiedzieć, że sprzedałeś inaczej i tak dalej, i tak dalej.

To jestem serio.

Podeślę ci artykuł, który to tłumaczy.

Teraz tak.

Baczka trzeba docenić.

On...

Znaczy, żeby było jasne, to jest znowu ten trochę taki przykład.

Po prostu, bo ja pamiętam kiedyś rozmowy z nim na ten temat.

On zobaczył, jak to działa na Zachodzie, miał swój audience i szacun pełen.

I ten audience po prostu zbudował i go idealnie wykorzystuje, nie?

No i pokazał, że da się, nie?

I dla mnie w tym wszystkim najlepsze jest to, że on po prostu pokazał, że w IT jest taka przestrzeń, żeby to zadziałało, nie?

Mechanizmy są znane, to są mailingi, to są tego typu rzeczy.

To jest generalnie zreplikowanie pomysłu, który działa za granicą.

Darmowy content, ale z koniecznością rejestrowania się, tak?

Tak.

Jak weźmiesz książkę, to przeczytasz.

Ale tu trzeba przyznać, wiesz, on zbudował sobie audience i idealnie umie startytować ten audience, ale co najważniejsze, on pokazał, że ten audience istnieje i jest skłonny płacić.

I potem inni zaczęli to replikować, nie?

Co prawda Niebezpiecznik zaczął chyba to, Piotrek, robić wcześniej nawet, tylko w innej formie, bo on to robił w formie takich tam wystąpień, on i tak dalej, i tak dalej, ale to pokazuje...

Maciek też występował.

Swojego czasu Maciek był na absolutnie każdej konferencji.

Piotrek robił coś innego.

On po prostu zapełniał sale kinowe w Polsce wystąpieniami, które trwały półtorej godziny czy dwie godziny, i robił show.

I sprzedawał to masowo, bo to szło jak bilety po prostu do kina, nie?

Dla mnie, mówię, największy przekaz tego jest taki, że taka przestrzeń istnieje, co pokazuje, że mamy duży ten audience, by the way, wszystkich zachęcamy, żeby nam followowali, jak usłyszą oczywiście o nas, i że jeżeli to jest dobrze podane, no to sprzedaż już działa.

Tam jest tylko jeden, tak już na zakończenie trochę ten, ale to jest ogólne pytanie, nie?

Ilu ludzi, którzy to kupują, przez to przechodzi?

I nikt nie ma na to odpowiedzi.

Ale to jest kompletnie nie ich sprawa.

Nie ma, bo kiedyś Ciebie o to spytałem i powiedział, że nie ma, nie mierzą tego.

Mnie zaskoczyła tak naprawdę jedna rzecz, zaskakuje cały czas, to jest to, że rzeczywiście Maciek był kiedyś mega aktywny, czy w społeczności dotnetowej, czy ogólnie w Software Craftmanship, działał na konferencjach, zrobił ten program Daj się poznać, który naprawdę miał bardzo duży rewerb w IT w Polsce, ale kilka lat temu przestał.

I to...

I tak naprawdę przecież weszło kolejne pokolenie deweloperów, zwłaszcza przez pandemię i tak dalej, ludzi, którzy teoretycznie Maćka nie powinni znać.

Ale jak patrzymy na te wyniki sprzedaży tych kursów, to ciągle źle.

Więc to, jak on potrafił zbudować maszynę, która się po prostu kręci i cały czas mu ten biznes rozpędza, oczywiście on dobiera odpowiednią osobę i tak dalej, i tak dalej, za to szacun, bo to jest nieoczywiste.

Wiele osób próbowało i się im to nie udało.

To wiecie co, możemy tak zrobić, że ja go ściągnę, pogadamy z nim i powie nam, jak to zrobił.

On przestał też celowo, też wytłumaczył, dlaczego przestał, nie?

Bo...

No ja go, mówię, akurat trochę znam, może stąd jakiś tam background.

Dobrze, to zróbmy taki...

Ten kiedyś, czy w brew, czy w coffee, Maciek Janicarowicz, czuj się zaproszony, odezwę się do ciebie, gdybyś oglądał, oczywiście.

Dobrze, panowie, zawijamy.

Godzina minęła, jak Zbicia strzelił.

Kontent niewygenerowany przez AI.

Opinie, które wyszły z działka.

Też niewygenerowany przez AI.

Też niewygenerowany przez AI.

Tylko Oscar wygenerowany przez AI.

Jeszcze nie dostaliśmy, ale w przyszłości.

Jest ciekawe, z 20 przykładów już zachował nam przyszły brew.

No dobrze, dziękuję bardzo.

Rozmowa jak zwykle szybka, dynamiczna i... kaloryczna.

Żeby się zajmowało.

Dzięki wielkie, dzięki bardzo, trzymajcie się.

Do zobaczenia, znowu spróbuję to zrobić.

Napisy stworzone przez społeczność Amara.org A teraz, jak widzicie, mamy tutaj też dużo rzeczy, które nie są w stanie się złożyć.

Creators and Guests

Sebastian Gębski
Host
Sebastian Gębski
Geek, engineer, blogger, codefella, serial reader. In the daylight: Principal SA for @awscloud (Startups, CEE). ex-CTO. I speak here for myself only.
Tomasz Onyszko
Host
Tomasz Onyszko
Founder, entrepreneur and CTO - I write about building company and career in tech. I observe tech and society and share my opinions
Wojtek Ptak
Host
Wojtek Ptak
Learner, teams & products builder, DDD & ML mixer, leader, contributor, and freeride biker by ❤️ working as @RevolutApp’s Head of Engineering. He/him.
Brew #18: Elon walczy z całym światem, Dramy i Nowości w Świecie LLM, Roboty na chodnikach Warszawy
Broadcast by