Brew #7: Przeczytane/zobaczone, ThoughtWorks Radar - subiektywny review, Amazon kupuje Anthropic!

Witaj w CTO Morning Brew, miejscu gdzie dyskutujemy o faktach, trendach i wydarzeniach w świecie technologii, a raczej przedstawiamy nasze opinie o nich.

Nasze opinie nie zawsze są poprawne, nie zawsze obiektywne, ale są nasze.

Możecie z nimi zgadzać lub nie, ale warto posłuchać.

A my to ekipa CTO Morning, czyli Sebastian Gębski, Wojtek Ptak i ja, Tomek Onyszko.

Zasubskrybuj nas na swojej platformie, poszukaj nas też na YouTube, a jeżeli Ci się to podoba, oceń nas i daj nam gwiazdkę w swoim ulubionym programie do podcastów.

Zapraszam.

Dzień dobry, kolejne CTO Morning Brew w niezmiennym składzie.

Tomek Onyszko, to ja, Sebastian to ten człowiek z tłem, ChatGPT czy Dali?

Po prostu Super Mario.

Dali trzy wyszedł, nie wiem czy widzieliście, nowe tła będziemy generować.

Też widziałem porównanie.

Ale za frajer będzie, przynajmniej w bingu.

Wojtek Ptak wyjątkowo nie na sali żadnej, dzisiaj w innym biurze.

To Wojtek, masz chyba biuro na każdy tydzień.

A dokładnie, akurat zmiany w domu.

Dla tych, którzy widzą nas pierwszy raz, CTO Morning Brew, tutaj komentujemy różne rzeczy, technologie, wydarzenia, wyrażamy opinie.

Poniżej macie trochę linków, tam nas znajdziecie w internetach, możecie znaleźć też CTO Morning Coffee, nasz podcast.

Tu sobie rozmawiamy na konkretne tematy, co dwa tygodnie zapraszamy na YouTubie, na podcastie, a tutaj trochę bardziej bieżąco.

Nie zawsze długowiecznie, bo temat może się zestarzyć.

Spróbujmy czegoś nowego.

Mam dla was dzisiaj dodatkowe zadanie, zanim przejdziemy do tematów, czyli bieżące rzeczy.

Co przeczytaliście, znaleźliście, zobaczyliście ciekawego od poprzedniego brew?

Sebastian, pierwszy do tablicy.

Wcale nie jestem przygotowany.

Oczywiście, że nie jesteś.

Dlatego, przez przypadek, zupełnie w ręce, mam coś, co mi wpadło w zeszłym tygodniu.

To jest książka, oczywiście.

Książka o tym startupowcy, tak wygląda.

Jest w fizycznej formie, dlatego, że do self-publishingi na chwilę obecną chyba nie ma w ogóle nawet e-booka, audiobooka.

To jest książka napisana przez przedsiębiorcę i dziennikarza, przez panów Kurasińskiego, Domarackiego.

I ona jest o polskich startupach.

To jest trochę tak war story w formie wywiadów.

Jest bardzo ciekawa selekcja tego, z kim panowie autorzy rozmawiają.

Czyli rzeczywiście to są, można powiedzieć, cream de la cream polskich startupów.

Czyli można tam znaleźć takie firmy jak Dog Planner, czyli tzw. znany lekarz, jak Brainly, jak Ramp, jak View Storefront.

I można zobaczyć ich historię, po prostu ich sukcesu.

Nie boimy się tego powiedzieć, sukcesu.

A jest jakaś historia upadku?

Do tego jeszcze nie doszedłem, dlatego, że książka, która wpadła w moje ręce, to jeszcze nie jest rekomendacja.

Na razie mnie to zainteresowało, również dlatego, że akurat ja w tym środowisku startupowym się dosyć mocno obracam.

Więc część tych firm znam i chciałem je teraz poznać od tej innej strony, dlatego, że wiadomo, że ja je mogę znać z bieżącej działalności, ale niekoniecznie byłem tam wtedy, kiedy to wszystko zaczynało się rozkręcać.

Jeszcze nie wiem, czy książce wystawia źle urkę, natomiast na pewno ze względu na tematykę to jest w pewnym sensie pozycja unikatowa, bo jednak ciężko znaleźć takie początki na tych firm, które już co po niektóre albo się o tego unicorna ocierają, albo tymi unicornami już są.

Mam już pewne takie warning signs, że coś mi się może w tej książce nie podobać, zwłaszcza w tym modelu publikacji, który panowie wybrali, ale do tego jeszcze pewnie dojdziemy.

Ja mam siłą brodę.

Ty nie masz brody.

Jeszcze po włosach cię nie można sprawdzić.

Nie wiem, czy pamiętasz, była jakaś taka książka, encyklopedia polskiego rocka.

Weiss chyba napisał.

To tak jakoś mi się skojarzyło.

I tam wiesz, według alfabetu wszyscy byli zespoły, wokaliści, muzycy itd.

To chyba nie ma aż tyle materiału, żeby to było PKP Ultraparallela.

To poczekam na twoją recenzję.

Ja mocno w startupach nie siedzę.

Niektórych z tych ludzi tam znam, albo się gdzieś z nimi otarłem.

Faktycznie ciekawe by było taki graveyard polskiego startupu i lekcje z tego wyciągnięte.

No to chyba trudniej jest to zbudować.

Czy ja się nakręciłem na to zupełnie przez przypadek?

Dlaczego?

Ostatnio słyszałem na podcaście Michała Sadowskiego wywiad z założycielem Infermedici i to był super fajny, otwarty wywiad bez bullshit'u, opowiadanie jak to było, jak bolało, gdzie bolało, dlaczego bolało.

I tu m.in. też żyje z Infermedica w tej książce, więc można powiedzieć, że skalibrowało to moje oczekiwania względnie.

Dobrze.

Wojtek, coś ciekawego znalazłeś?

Miałem kilka takich rzeczy, nie książka tym razem, więc chciałem nawiązać do kilku z ciekawych znalezionych rzeczy.

Pierwsza rzecz, która mnie zaskoczyła, że CEO X nie ma na ekranie głównym swojego telefonu.

Jak wszyscy wiedzą X ma CEO i ta pani CEO dała sobie zrobić zdjęcie pokazując telefon i tam nie ma X. Ma być złośliwy?

To było bardzo dla mnie ciekawe.

Trzeba się powstrzymać.

Masz się teraz powstrzymać jeszcze od tego komentarza za chwileczkę.

Druga rzecz, która dla mnie była bardzo ciekawa, jako że nie byłem, byłem bardzo sceptycznie nastawiony do tej technologii.

Tutaj muszę powiedzieć, że to było dla mnie bardzo miłe zaskoczenie, czyli podcast Leksa Friedmana i Zuckerberga wypuszczony w metawersie, w jego nowej wersji i muszę powiedzieć, że zrobiło to na mnie duże wrażenie.

Tym bardziej, że jeszcze niedawno śmialiśmy się jak zabawkowy jest metawers w porównaniu do niektórych tych projektów.

Natomiast tutaj faktycznie jest już ultra realistycznie.

Podobno to wszystko właśnie w nowym Oculusie i do tego wszystkiego muszę powiedzieć, że tego oglądało się bardzo ok.

Więc to jest takie dla mnie ciekawe, więc polecam dla osób, które tego jeszcze nie widziały.

Mam opinie, zawaham się jej użyć, moje motto życiowe.

Dwie rzeczy.

Jedna ta złośliwość, bo powiedziałeś jak wszyscy wiedzą Twitter ma CEO.

Nie zgodzę się.

Myślę, że większość ludzi nie wie.

A druga rzecz odnośnie Oculusa.

Może jeszcze jak znajdziemy czas na chwilę to pogadamy w ogóle szczerze i o mecie.

Ale tak, tylko tak.

Jeden, to są zeskanowane wcześniej modele.

Taka technologia wcześniej już była.

Microsoft ją miał w Hololensach.

Tylko tak, Hololensy miały w ogóle inne urządzenia, więc one bardzo mały punkt widzenia itd.

I nawet ciekawiej, bo miał po prostu kamery i robił to na żywo.

Ale tak, wideo podlinkujemy.

Totalnie impresive.

Dalej nie wierzę w metaverse.

Totalnie inny temat.

Zgadza się.

Tutaj bardziej mi chodzi o rozwój jednak tych technologii sieci neuronowych do generowania modeli 3D, do generowania ruchów twarzy itd.

Jest to naprawdę ciekawe.

Technologicznie hands down.

Zaskoczyli mnie.

Mówię, więcej niż oczekiwałem od nich, jeżeli o to chodzi.

Dobrze, ja mam książkę w formie Kindle'a.

Już zrobiłem preview, ale obiecywałem sobie, że jej nie przeczytam.

Szczerze, bo już czytałem jedną biografię Maska.

Czyli czytam Maska.

Wersję Isaacsona.

Isaacsona.

Na Kindle'u, bo ja czytam większości na Kindle'u akurat.

Wziąłem ją tylko dlatego, że niejaki DHH zaczął cytować tę książkę i napisał takie fajne zdanie, że nie musisz chcieć być jak Elon. 5 zł.

Ale warto przeczytać, bo jest tam Business Operations, jak on prowadzi firmę.

The Algorithm.

Proszę?

The Algorithm, tak zwany.

Tak, tak nazwał.

Ten Algorithm mi się bardzo spodobał swoją drogą.

Zdaje mi się pod nim podpisać.

No i zacząłem czytać.

Powiem szczerze, że czyta się bardzo dobrze.

Jestem tam około 10% z kawałkiem, ale czyta się bardzo dobrze i nawet do tej biografii, którą czytałem poprzednio, to daje inny kontekst, bo tam była jakaś historia, a tutaj ta historia jest na przykład trochę wcześniej napisana.

Więc chyba warto, ale też recenzję wystawię na Goodreads.

Jak ktoś nie widział, to Sebastian ma aktywny profil na Goodreads.

Czasem się zastanawiam skąd tyle książek jest na świecie.

By the way, jeden z moich dla was hint, jeden z moich algorytmów wyboru kolejki.

Przyglądam jego kolejkę i potem ją czytam, ale też innych ludzi, to nie tylko to.

Więc możesz przyglądać moją, znajdziesz swoje książki.

Ja też mam profil na Goodreads.

Wojtek nie wiem, czy ma profil na Goodreads.

Mam chyba, ale jeszcze tak bardzo go nie update'uję, bo nie mam zsynchronizowanego z Kindlem.

Ja też nie mam, ale nadrabiam, bo jakoś tak doszedłem do wniosku, że warto.

Kiedyś sobie pomyślałem, że warto wpisywać te recenzje.

Nawet dzisiaj przeczytałem jedną już z Sebastianu z rana.

Też ciekawa.

Dobrze, zobaczymy.

To przygotujcie sobie następny raz też coś ciekawego.

Z zaskoczenia może w środku was wyciągnę wtedy, żeby nie było.

Z innych lektur i przechodząc trochę do tematów naszych porannych rozmów dzisiejszych.

Jest taka firma, co myśli i pracuje.

Nazywa się ThoughtWorks.

Ja jej generują taki radar, który potem inne firmy kopiują.

Przyznam się szczerze, że ja miałem swoje podejście w mojej firmie do skopiowania tego radar.

Chciałem mieć inne ułożenie, interne takie narzędzia, można nawet je publikować.

Powstała pierwsza część nawet, pierwsze wydanie.

Nie wyszło na zewnątrz.

No ale opublikowałem nowy radar.

Dla tych, którzy nie widzieli, oczywiście radar jest podlinkowany na dole.

ThoughtWorks publikuje takie zestawienie technologii, technik, platform, rekomendacji, co jest nowego, co działa, co nie działa, czego unikać.

Dużo pozycji jest, bo liczyłem ze 120.

Chyba 108 i to jest jeden z moich punktów krytycznych.

Jest tu 108.

Dobrze, radar jaki jest, każdy widzi, wychodzi.

ThoughtWorks wypuszcza swoje rekomendacje.

Można je ignorować, można je nie ignorować.

Tam jest chyba taka nowość, że ja nie widziałem wcześniej, że pokazują co weszło, co wyszło, albo nie zwróciłem uwagi.

Było tylko, że inaczej zaznaczono.

To było jak wchodziłeś w szczegóły radaru.

To co wyłapaliście ciekawego?

Zacznę, że pierwsza rzecz, która jest dla mnie kontrowersyjna, to jest mnogość tematów.

Wątpię, żeby ktoś już miał czas przejść przez te kilkadziesiąt, już prawie pewnie ze 100 stron, tylko i wyłącznie, żeby zobaczyć, co się zmieniło i co się dzieje.

To jest taki mój punkt krytyki do tego radaru.

Oczywiście, tak jak powiedziałeś, to bez dwóch zdań jest to temat kontrowersyjny, natomiast zawsze o nim się mówi.

Myślę, że tej firmie też o to chodzi.

Natomiast wiele osób będzie rozmawiało o tym, co się w tym radarze pojawiło.

Tak jak pewnie każdy chciał napisać framework w życiu, albo napisał, tak każdy pewnie miał podejście do podobnego projektu.

Ja również mogę powiedzieć, że miałem podejście kiedyś do podobnego projektu.

Więc tutaj na pewno są pewnymi trendsetterami.

Wiecie co, ja może powiem jedną rzecz ogólnie odnośnie tego radaru, zanim też przejdę do tego, co mnie zaciekawiło.

Moja percepcja na radar się bardzo zmieniła w przeciągu ostatnich dwóch lat.

Kiedyś ja go odbierałem, że to jest pewnego rodzaju research rynku.

Czyli to jest takie spojrzenie, co nowego się pojawiło, na co należy zwrócić uwagę, bo to będzie nowy Kubernetes, to będzie nowy Angular, to będzie nowe whatever.

Ale to wcale nie jest to.

To służy zupełnie czemuś innemu.

Jak sobie spojrzycie na ten radar, on jest mocno sprofilowany pod kątem kilku technologii stacków.

Czyli na przykład pod kątem Pythona, pod kątem TypeScripta.

A jest tam x różnych technologii bardzo popularnych, które je totalnie olewają.

Z czego to wynika?

Ten radar, z tego co się orientuję, pochodzi normalnie z ich tzw. trenches, z ich okopów.

To są faktycznie rzeczy, które te zespoły próbują.

Te technologie są nawet mocno zmurszałe.

Po prostu oni wcześniej nie mieli tej świadomości.

To im zaczyna robić gdzieś tam różnicę.

A więc ten wybór jest mocno selektywny.

On wcale nie reprezentuje, że to są najważniejsze rzeczy, na które powinniście spojrzeć i wtedy będziecie on the bleeding edge w pisaniu custom oprogramowania.

To dla mnie było bardzo duża zmiana mentalna.

Nie wiem, czy tak samo odbieracie, czy nie.

By the way, my tam kiedyś rozmawialiśmy w Coffee o raportach radarach.

To polecam.

Polecamy.

Ale wiesz co, oni chyba też kiedyś tak sprzedawali trochę, że to jest właśnie ta prezentacja bleeding edge, że to jest te technologie, które powinniście używać itd.

Nie widziałem takiego statementu.

Jeżeli tak, to pewnie marketing.

Natomiast uważam, że właśnie takie spojrzenie o tym powiedziałem jest trochę zdrowsze.

Ja w ten sposób znalazłem kilka bardzo fajnych technologii.

Na przykład odnośnie testów kontraktów i automatyzacji testów kontraktów.

Bibliotek, których istnienia wcześniej nawet nie miałem pojęcia.

To może w telegraficznym skrócie, co mnie tam zainteresowało.

Poza takimi rzeczami zupełnie oczywistymi, bo tam jest dużo rock, tam jest dużo bazach wektorowych, to zainteresowało mnie tam te trzy projekty.

Pierwszy to jest projekt, od którego świadomości nie miałem istnienia.

Nazywa się Cloud Events.

I to są takie zupełnie tech agnostic, stack agnostic specyfikacje dotyczące eventów, którymi mogą się komunikować serwery losowe usługi w chmurze.

Jest do tego specyfikacja, są do tego SDK-i.

Jest do tego implementacje korzystające z różnych protokołów komunikacji, więc można sobie tam skorzystać z gRPC, czy jakiejś w ogóle Avro itd.

Chodzi tu o to, żeby posiadać taką specyfikację eventową, która umożliwiałaby integrację rzeczywiście łączenia dowolnych praktycznie stacków.

I to jest ciekawe, dlatego że Major Version tam nie ma od nowej, od chyba półtej roku, ale wszystkie te projekty wydają się być aktywne.

Nie widziałem tego w akcji.

Ciekawe, czy im się to sprawdza, czy po prostu tak rzucili, bo też stwierdzili, o to ciekawostka.

Ja mogę przyznać, że używałem Cloud Events.

Jest jeszcze Async API, czyli to jest próba dokumentacji, podobnie jak Open API, próba dokumentacji eventów, architekturze eventowej.

To widziałem, tak, coś takiego widziałem.

To była jakaś inna nazwa, nie pamiętam dokładnie, ale tak.

Async API, to jest...

Nawet z tym walczyłem.

Drugi ciekawy projekt, który mi się spodobał, to jest jako inspiracja, a niekoniecznie coś, czego bym chciał użyć, to jest Open Rewrite, czyli możliwość tak naprawdę specyfikacji zmian w kodzie, jako zmiany w kodzie, do tego, aby zrobić zmiany architektoniczne at scale na dużych bazach kodu.

Dlaczego powiedziałem, że to mnie bardziej zainspirowało, niż to jest coś, co bym użył teraz?

To jest dosyć ciekawe, bo tam jest napisane ileś tam tych konstruktów, których można użyć, ale to jest ciekawe, dlatego że wydaje się to być ciekawa rama na przyszłość do wykorzystania z LLM-ami, czyli tak naprawdę...

Bo to, że LLM może nam bardzo fajne rzeczy podpowiedzieć odnośnie tego, jak coś na przykład zmienić w kodzie, to jest fajne, ale my potem tę zmianę musimy zaimplementować sami.

Natomiast tu, jeżeli LLM będzie nam w stanie nie podpowiedzieć w formie, powiedzmy, tekstowej, tylko w formie takiej zmiany kompatybilnej z jakimś protokołem, na przykład tym OpenWrite'em, to to może być rzeczywiście dosyć ciekawy sposób na zautomatyzowanie dużych refactoringów w bazach kodu.

A możesz przybliżyć tak szybko OpenWrite, bo ja tego nie widziałem wcześniej, ale to brzmi ciekawie, czy to oznacza, że ja mogę tak jakby wystandaryzować robienie zmian w kodzie?

Tak, wyobraź sobie, że na przykład korzystasz z budki, przykład, JUnit'a 5, a chcesz przejść na JUnit'a 6.

Do liczby zupełnie strzelam z jakby...

No i więc jest to w miarę zestandaryzowana konwersja.

A więc odpalasz sobie projekt, do tego projektu wrzucasz plugin, weź wszystkie nazwy...

Piszesz reguły rewrite i po prostu je aplikujesz.

Tak, dokładnie tak, at scale.

To jest naprawdę niegłupie.

Pomysł jest ciekawy, a sprzężenie tego z elementem, tak jak powiedziałem wcześniej...

Good pick.

Let's talk.

Już ostatnio, i tu pewnie Wojtek będzie miał milion uwag i tak dalej, bo to są rzeczy z jego bajki, bardziej niż z mojej.

Powstało kilka fajnych specyfikacji albo taki bibliotek towarzyszących z metadanymi w świecie javowym.

Ja wymienię sobie tylko dwie.

Jedna z nich jest w radarze, a druga tam jest tylko wspomniana.

Spring Moduli i JMolecules.

To są specyfikacje, w ramach których na przykład można w tych dosyć typowych aplikacjach, załóżmy, że jakieś web API, można określić konstrukty abstrakcyjne, zgodne z jakimiś metodami.

Na przykład JMolecules to są konstrukty z domain-driven design.

Czyli można oznaczać konstrukty z domain-driven design bezpośrednio w kodzie i utrzymywać to long term.

Czyli jak architekci, którzy projektują rozwiązanie, mówią sobie, że to jest ENCIA, że to jest aggregate root, że to jest agregat i tak dalej.

Widać to w kodzie, bo wszystko jest tak otagowane, oanetetowane.

W Spring Moduli to jest jeszcze w ogóle o poziom wyżej, dlatego że tam jest projekt, który zaczyna się jako monolit modularny, czyli modulifu właśnie.

I to otagowanie służy temu, żeby móc później, żeby utrzymać pewną strukturę, pewien podział, a w przyszłości łatwiej rozpiąć to na mikroserwisy, które są na przykład deployowane niezależnie.

A to jest coś takiego, taka IDAC, która też mnie nęci, czyli takie odpięcie z kwestii infrastrukturalnych, kwestii deploymentowych od tego, jak my piszemy kod.

I to jest bardzo ciekawy koncept.

Nie wiem, na ile to jest dojrzałe, no, pojawiło się to w radarze i mnie zainteresowało.

Rozgadałem się trochę, oddaję wam głos.

To jest coś, co też zwróciło moją uwagę, natomiast muszę przyznać, że nie zagłębiałem się, tam jest ciekawe też, że te reguły możemy bardzo ładnie testować przy pomocy Arcunita.

Więc to jest też, i to, co powiedziałeś, że prawdopodobnie to też jest krok w ciekawą abstrakcję w języku programowania, co pewnie przy zastosowaniu LLM-ów też będzie miało miejsce.

Więc też muszę przyznać, że nie znałem tego.

Z moich zaskoczeń, żeby nie spędzić pewnie całej godziny rozmawiając, zaskoczenie numer jeden to jest hold, ignoring, always, top ten list.

Wiem, że biorąc pod uwagę zainteresowania Tomka, to myślę, że ja tylko powiem OK. Więc to było dla mnie zaskoczone, że to się pojawiło.

Ale wiesz, że to się w ogóle pojawiło, na tej zasadzie.

Zaskoczyło mnie w Adopt kilka rzeczy, które już na rynku istnieją naprawdę wiele, wiele lat.

Więc zdziwiłem się, że musimy o tym rozmawiać w jakikolwiek sposób.

Typu MermaidDBT i Snyk.

Czyli DBT jest to tak naprawdę technologia do ETL-u, framework do ETL-u bardzo popularny.

I zdziwiłem się, że jego musimy wymieniać.

OK. Mermaid, czyli tak naprawdę to jest diagram z SCODE, a też już bardzo popularne, wspierane przez większość ID i repozytoriów.

Popularne, ale mało znane, powiem ci w niektórych środowiskach przynajmniej, bo my robiliśmy review różnych rzeczy i się okazało, że wiesz, Mermaid to nie jest tak, że dużo ludzi o tym słyszało, bo na końcu ktoś to wyłuskał, więc wiesz.

Może faktycznie żyje w pewnej bańce, bo wiesz, dla mnie było, ja pamiętam, że Mermaid dla mnie był takim bardzo prostym odkryciem w momencie, gdy zobaczyłem, że w dokumentacjach, w repozytoriach na przykład rysują się ładne diagramy.

Ja też miałem o tym wspomnieć, to trochę przy tym, bo wiesz co, bo default i to jest ciekawe, bo default dla ludzi jednak są jakieś narzędzia wizualne, Joe, IO, coś takiego.

I przejście na Mermaid, gdzie robisz to w Markdownie, to jest duży problem dla firmy, dla ludzi bardziej, nie dla firmy.

Myślę, że dla ludzi, tak.

Ale właśnie, bo my, to akurat jeden z moich kolegów, Tomek Pęczek, który w zmianie z nazwiska gdzieś ten wyłuskał, powiedział, o, wygląda dobrze, nie, no bo to właśnie zaleta dla mnie była taka, że to jest w repo wtedy razem z kodem.

Utrzymywane razem z kodem, tak.

I to jest też kwestia renesansu tych portali developerskich typu backstage, które części są generowane właśnie na podstawie kodu.

I to tutaj mogę zdradzić, że pewnie na inny, na inny, na całkowicie inny odcinek, inny temat, ale to jest też o tym, co powiedziałaś, to jest jeden z dużych projektów, który jest u mnie w firmie teraz zrobiony i bardzo fajnie to zaczyna wychodzić.

I NDA, bot, NDA, bot.

Spokojnie.

No i Snyk, tak, czyli podejście w pewnym sensie kitopsowe i devopsowe do zabezpieczenia.

Więc to było takie dla mnie zaskoczenie, że jeszcze musimy o tym mówić, że to jest ważne, ale może, tak jak powtórzę, może żyję w pewnej bańce, które nie mam aż tak dostępu do firm, które na przykład jeszcze może mentalnie nie odkryły tego typu technologii, co było dla mnie ciekawe.

Mamy też hint, że obecna firma Wojtka odkryła.

Każdy z nas ma inne spojrzenie, ale no właśnie, bo jest kilka takich rzeczy, które są pewnie w miarę oczywiste, ale przyznam szczerze, że teraz przeglądam tą listę i zmieniłem trochę optykę po tym, co Sebastian powiedział.

Bo jeżeli spojrzymy na to, faktycznie na to, tak, dostajesz tam score point jednego człowieka, przekonałeś, no bo jeżeli spojrzymy na to jako na listę tego, co Softworks używa w tej chwili i jakby ten, no to trochę inaczej to wygląda, bo faktycznie na pewno to jasne jest, mają dużo rzeczy tam dookoła OpenLLM, jakieś takie rzeczy w ogóle LLM-ów, GPT jako Assess i wtedy patrzysz na to i to znaczy, może to nie jest taki hype, ale może po prostu się uczą.

Z takich rzeczy, które właśnie ja wychwyciłem, każdy ma inną optykę, ja jestem bardziej odstronny infrastruktury, security, gdzieś tam architektury i jest bardzo dużo rzeczy dookoła security kodu i pipelines i tak dalej, które wszystkie są w trial albo Assess.

I to było dokładnie to, co ty Wojtek powiedziałaś, bo ja tak patrzę i mówię, kurde, powinniśmy to już robić od dawna.

Tam jest na przykład Zero Trust Security for CICD.

Ja nawet miałem swój własną nazwę na to całość, bo pchamy Zero Trust Infrastructure i tam kiedyś mówiłem, może zaczniemy pchać wiadomość na rynek Zero Trust Applications.

To wiesz Tomku, Shift Left Security pojawiło się razem z chyba DevOps Handbook, przynajmniej w moim zrozumieniu, czyli to już jest jakieś dobre kilka lat.

Ten temat tłuczemy od dawna w środowisku, powiedzmy.

Z jego adopcją przynajmniej, to słuchajcie, to są moje doświadczenia, z jego adopcją jest zerowo, to znaczy w security to leży w większości, jeżeli chodzi o tą część, a tutaj jest w miarę dużo tych elementów.

Zresztą kiedyś rozmawialiśmy w COFI też z bezpiecznikami, tam był Kuba i Kuba właśnie dużo o tym mówi, Andrzej o tym mówi dużo, a to nie jest ten mały taki mój prywatny win, tam się pojawił taki w technikach w trial OEDC for GitHub Actions, ja wiem, że dla was to tam nic pewnie nie znaczy, to znaczy OpenID Connect, ale to jest taki 15 lat pchania OEDC, czy 18 już w tej chwili, czyli pchania protokołu OpenID Connect i w końcu zostaje to gdzieś tam dociera.

By the way, jeżeli tego nie widzieliście, to jest naprawdę bardzo pożyteczna rzecz.

To jest to, co Microsoft ma zapięte jako, to się nazywa Federated Identity, ale to się sprowadza do tego, że na przykład masz rzeczy w Azure, masz GitHuba i możesz skonfigurować tak jakby w cudzysłowie SSO, że te GitHub Actions mają swoje identity, ma security principal na tym środowisku i wiesz, nie jest już to zaszycie gdzieś tam, kredenszali, jakieś certyfikaty, tylko to jest pełnoprawny komponent platformy.

To jest dobra rzecz, nie wiem czy inni to adaptują.

Jeżeli ktoś siedzi na GitHubie i na środowisku, które wspiera OpenID Connect, to według mnie powinien zerknąć.

W ogóle w całości dużo się przejawia GitHuba, też w kilku miejscach i to jest też pytanie, czy akurat teraz przychodzą na to, bo wszystko jest w trial i SS znowu.

My akurat się zajmowaliśmy trochę GitHubem, też mogę powiedzieć, że to nie jest szeroko zaadaptowana platforma, znaczy jest szeroko, ale może nie Enterprise.

Więc to były takie rzeczy, na które zwróciłem uwagę.

Jeden ciekawa rzecz, bo ostatnio miałem rozmowę na ten temat, bo tam w technikach w SS pojawiło się GitOps i ja akurat wewnętrznie miałem rozmowę z Rosyn Tygodniu dookoła tego, że GitOps, no i pytanie, GitOps staje się jakoś tam zdefiniowane, jest częścią Linux Foundation, pojawia się temat dookoła tego.

Pytanie, czy to się przebije, czy nie, jako podejście, bo on trochę stoi w poprzek tego, co wszyscy inni pchają w okolicach DevOpsów, a mówię więksi vendorzy, albo inaczej, wymaga to dostosowania.

Więc pytanie, czy maszyna marketingowa, przyjęte praktyki dotąd i tak dalej, nie powstrzymają w ogóle na ileś lat tam adopcji tego.

No ale też jeżeli ktoś się nie interesował, to proponuję zajrzeć, bo według mnie gdzieś tam się to na radarze będzie pojawiać.

Ja mam jeszcze kilka takich, jeżeli chodzi o techniki, bo systemy, czy tam toole są bardzo przypięte do jakiegoś stacku, który mamy, natomiast chciałem zwrócić uwagę, że pojawiło się kilka fajnych pomysłów.

Przede wszystkim Light Wave Approach to RFC, coś, co muszę powiedzieć, że ze swoim zespołem spróbowałem kilka miesięcy temu i to bardzo fajnie działa, więc polecam takie podejście, czyli jakieś propozycje zmiany w systemie, w architekturze, robimy w formie RFC, czyli Request for Comments, i jakieś forum inżynierów poddaje to pod krytykę.

Naprawdę świetne rzeczy z tego wychodzą.

Tam oni też proponują coś, nad czym się nie zastanawiałem jeszcze, ale faktycznie ma duży sens, czyli Design Decision Records, czyli dokumentowanie decyzji dotyczących designu architektury.

Bardzo fajne narzędzie.

I coś, co myślę, że odpowiedziałam dla wielu firm, jak iść szybciej, sprawdzone, bo też to mogę widzieć właśnie z pierwszej ręki, czyli Design Systems.

Ciekawe podejście dla wielu osób ograniczające, bo to narzuca pewne kajdany w myśleniu, może kajdany nie, ale constraints, invariants, jeżeli chodzi o decyzje architektoniczne, niektórzy mogą to nazwać kajdanami, ale powoduje, że my myślimy w większej organizacji dokładnie w ten sam sposób projektując systemy.

Więc jeżeli chodzi o techniki, to polecam rzucić okiem.

Dobrze.

Design System Decision Records.

To jest ciekawe, bo to jest znowu taka rzecz, którą byś myślał, że już ludzie używają.

To też się pojawia w WSS.

Ja to traktowałem, wrzucałem do jednego worka z Architecture Decision Records, ale jednak jak przeczytałem radar, to stwierdziłem, kurczę, to faktycznie jest troszeczkę coś innego.

I bardzo może ciekawie też, po tym jak przeczytałem w ten weekend ten radar, to pomyślałem, może faktycznie dla celów edukacyjnych w firmie, może to być, jeżeli to jest dobrze wykonane narzędzie, naprawdę ciekawe i fajne.

Także myślę, że będę chciał spróbować coś tutaj podziałać w tym temacie.

Jeżeli jesteście zainteresowani jeszcze trochę więcej przemyśleń na temat radaru, to polecamy Pato Architektów, bo oni regularnie na swoim podcaście wyżywają się nad tym.

Rozszarpują radar.

Podejrzewam, że tym razem również sobie nie odmówią.

Pozdrowienia dla Pato Architektów.

Niesponsorowane, ale tak, chłopaki tam zawsze biorą radar na patelnię, tapety, cokolwiek powiemy.

Smażą.

Więc Pato Architekci fordyłujemy, jeżeli chodzi o radar, ale nie zapominajcie o nas.

Dobrze.

Wiecie co, chyba główna rola tego radaru jest taka trochę też, żeby wzbudzić taką dyskusję, jak mieliśmy.

I też może czasami niektórzy odhaczą sobie, o, a ja już to robię, czuję się lepiej.

To też takie ten...

Radar radarem, świat żyje różnymi rzeczami.

To weźmy sobie łopaty na patelnię, że tak powiem.

Ejaj na patelnię.

Ejaj, ale łopaty w ejaj.

Amazon zrobił kolejny ruch, bo rozmawialiśmy jakiś czas temu o tym, że Amazon zrobił ruch razem z innymi w inwestycje w Hugging Face.

A teraz Amazon zrobił duży ruch, bo zainwestował w Anthropic, czyli taką firmę, która już nie jest tylko czystą nawet łopatą, ale jednak...

Po Anthropic, Sebastian, może przybliżysz firmę?

Anthropica możecie kojarzyć z kilku rzeczy.

Przede wszystkim z Cloud 2, czyli to jest taka konkurencja względem chat GPT, bardzo ciekawy model do ogólnych konwersacji.

Przy czym akurat on jest chyba jeszcze nie dostępny w Unii Europejskiej, więc żeby z nim skorzystać, trzeba się troszeczkę bardziej namęczyć.

To, co w nim jest chyba najbardziej ciekawego, to w czym on jest unikalny, to jest, że ma ten kontekst Windows 100 tysięcy tokenów.

I to jest naprawdę dużo.

To oznacza, że można go wykorzystać do znacznie ciekawszych scenariuszy, znacznie bogatszych scenariuszy, powiedziałbym.

W zgraniu Anthropic...

Kontekst Windows dla tych, którzy nie znają LLM-ów, tylko to jest takie okienko, przez które LLM patrzy na swoje dane.

Jak je ustawisz, to masz w tym określonym pomysłu.

Przede wszystkim to jest tak, jak możemy zdefiniować prompt.

To, co jest ciekawe, to jest, że Anthropic to jest firma, która została założona przez weteranów OpenAI, czyli ludzi, którzy OpenAI rozkręcali i tam chyba dwa lata temu albo nawet trochę wcześniej wyszli stamtąd i stwierdzili, że zajął swoją własną firmę.

I tak, to jest firma, w której...

Mocno zainwestował w nią Google.

To było chyba jakiś rok temu mniej więcej, może troszeczkę więcej.

Zainwestowali bodajże 300 milionów dolarów, a wtedy Anthropic ogłosił Google jako swojego preferowanego dostawcę infrastruktury i zaczął oferować swoje modele na Vertexie AI Google'owym.

No i teraz właśnie wielkie zaskoczenie, bo Amazon przyjął pałeczkę.

W tym ogłoszeniu, z tego co pamiętam, pojawiała się kwota 4 miliardów, jeżeli chodzi o kwestie inwestycji.

Tak, to jest masa kasy oczywiście.

I teraz tak naprawdę możemy się zastanawiać przede wszystkim, dlaczego, skąd ten pomysł i na co pójdą te pieniądze.

Na infrastruktury na Amazonie.

Też na pewno tak.

Na infrastrukturę, czyli de facto na wytrenowanie kolejnych modeli.

Dlaczego trenować kolejne modele, skoro już mamy modele?

Chyba zaczęły się jakieś wojny modelowe, tak mam wrażenie.

Bo też jest taka tajemnica.

To chyba taki trochę kontekst, że mamy Microsoft OpenAI i tutaj pojawił się taki dość silny sygnał pod tym Amazon Anthropic, czyli konkurencja do OpenAI i GPT.

Więc nazwijmy to wojny modelowe, to będziemy pierwsi, zrobimy sobie dokładnego trademark.

No ale to chyba właśnie w tym kierunku idzie.

Wydaje mi się, że jeszcze jedną tylko dorzucił uwagę, zanim oddam głos Wojtkowi, że do kontekstu warto dać jeszcze jedno ogłoszenie, które miało miejsce.

To jest ogłoszenie, bo też jest w czwartku zeszłego tygodnia, czyli kilka dni temu dosłownie.

I to jest wypuszczenie wersji, generalnie available wersji Amazon Bedrock.

A czym jest Amazon Bedrock?

No to jest sposób na serwerlessowe publikowanie sobie modeli, takich właśnie dużych, tak zwanych foundational models, na potrzeby swojej własnej firmy.

Czyli mamy jakieś rozwiązanie, chcemy kosztować z LLM, chcemy sobie w bezpiecznych, izolowanych warunkach hostować model.

Możemy to robić właśnie według Amazona, w stacji Amazon Bedrock.

I teraz, żeby to miało sens, to trzeba móc hostować naprawdę dobre modele.

To musi być równie dobre albo lepsze niż to, co oferuje na przykład w swojej hostowanej wersji OpenAI.

Właśnie, bo to jest...

Znowu wracamy do tego samego tematu, podejścia.

Microsoft jednak z OpenAI zrobił duży bet i Microsoft ma OpenAI.

Oczywiście może zrobić sobie inne modele itd., ale generalnie to się nawet nazywa Microsoft OpenAI Services.

Nie ma czegoś takiego jak Microsoft Azure, LLM, Bedrock, whatever.

To jest OpenAI Services.

Na Amazon idzie jednak w to, że ma infrastrukturę i pozwala wszystkim innym na tym działać.

Tutaj może wysyła większy sygnał pod tytułem, że GPT-alike serwis, to nie musicie iść do Microsoftu, tylko tutaj też już go macie.

Ja chciałem zwrócić uwagę, że jeszcze może dodać kontekstu, bo nie wszyscy mogą pamiętać, że jest to firma stająca za cloudę.

Czyli był taki okres na początku tego roku, gdzie wszyscy zachwycali się chart GPT i modelem GPT.

Natomiast jeden za drugim zaczęły wychodzić bardzo ciekawe inne modele, czyli BART, Google'a, na początku troszeczkę słabiej sobie dający radę, później coraz lepiej.

I właśnie cloudę.

I cloudę mnie osobiście zaskoczył tym, że on od początku jak wyszedł, jego jakość była bardzo wysoka.

I on szczególnie dobrze sobie też, nawet lepiej, dawał radę w generowaniu dosyć skomplikowanego kodu.

Czyli to, co powiedziałeś, Sebastian, jeżeli chodzi o długość wątku, to w dyskusji na temat, na przykład jak robiłem sobie testy w dyskusji, na temat jakiegoś rozwiązania, cloudę potrafiło zaproponować dużo lepszy kod, więc jest to na pewno ciekawe rozwiązanie.

I to już było dosyć dawno temu.

Więc ja jestem bardzo ciekaw, też jest ciekawe to, że on dalej nie jest dostępny jeszcze w Unii Europejskiej, więc trzymam, myślę, że za niego kciuki, bo jest to na pewno ciekawa alternatywa.

Ja bym powiedział, że tych smaczków jest jeszcze więcej, bo smaczki są takie, że tak jak powiedzieliśmy, była ta inwestycja Google'a, wyciekła informacja przez Pragmatic Engineer, wyciekła informacja na temat tego, że podobno ta współpraca Google'a z Antropikiem nie była idealna i tam te klastry, które Google proponował Antropikowi, nie dawały rady wydajnościowo.

Nie mamy potwierdzenia oczywiście na chwilę obecną, to jest informacja bardzo świeża, tam chodziło o jakieś klastrowanie hasto od NVIDII.

Smaczku dodatkowego dodaję to, że podpisując tą umowę z Amazonem wcale Amazonowi na przykład nawet miejsca w boardzie Antropik nie oddaje, więc to nie jest tak, że w tym momencie Antropik staje się wasalem Amazona, to wcale tak nie wygląda.

Staje się Amazonem dostawcą, preferowanym dostawcą, czy nie wiem, czy unikalnym dostawcą infrastruktury pod Antropika i ta infrastruktura, co też zostało tam powiedziane, ona będzie na bardzo specyficznych chipsetach, czyli na Inferentia i na Tranium, czyli tutaj też to Amazon chce podformować, chce pokazać, że w tej dobie, tego shortage'u, jeżeli chodzi właśnie o chipsety wykorzystane pod AI, to oni mają mocny offering i proszę bardzo, tutaj wchodzi leading player, kloty, Antropik i to wszystko będzie jechało.

Zobaczymy, jak to będzie wyglądać.

Jeszcze tak zupełnie na koniec, żeby dodać, Smaczku, over to smaczek.

Pojawiły się też plotki odnośnie tego, że będzie kolejna bardzo duża runda, plotki oczywiście umiejętnie wypuszczone, kolejna duża runda OpenAI, tam na razie te liczby są trochę z kosmosu, te ewaluacja ma być oczywiście jeszcze większa i jeszcze OpenAI zachintował, że pracuje nad czymś, co nazwali iPhone'em dla AI, czy iPhone'em dla LLM'ów i tu już również zaczęły się spekulacje w internecie, co to może znaczyć, czy przypadkiem nie chodzi o hardware device, który na przykład byłby ekwiwalentem telefonu bez wyświetlacza, bo przecież już nie potrzebujemy mieć wyświetlacza i klawiatury, skoro my sobie rozmawiamy tak naprawdę z naszym służącym, z naszą służebną sztuczną inteligencją.

Wyświetlacz to chyba się przydaje.

Myślałem, że powiedzieć, ale Wojtek, wyświetlacz to chyba się przydaje, bo właśnie tutaj to jest trochę Amazon buduje offering do tego, co ma Microsoft, bo jednak świadomości ludzi, teraz trochę uprośmy, bez podziałów jakichś mocnych itd.

Istnieje chat GPT, czyli jak ktoś myśli AI, to jednak duża ilość ludzi myśli chat GPT.

Czyli jest to ready to use product, pod tytułem ściągam aplikację i działa.

Ta aplikacja się stała właśnie bardzo użyteczna albo bardziej użyteczna, bo tam się pojawił nowy model, pojawił się multimodel, można zacząć używać głosu obrazków.

I tam z pierwszych testów, które wpadły, to ludzie zaczynają robić crazy stuff.

I tu właśnie chciałem się też odnieść, to odnośnie pewnie smart food w tygodniu, bo dla mnie jest bardzo ciekawe, bo ten GPT-4 faktycznie w wersji multimodal to już nie jest taki prosty model, który potrafi nam nazwać obiekty, który potrafi nam określić jakieś proste cechy tych obiektów.

To jest przynajmniej z tych screenshotów, które widzimy, jest to model, który faktycznie potrafi zrozumieć ten obraz wraz z jego kontekstem i ciekawe rzeczy się z tego dzieją.

Ja na przykład muszę powiedzieć, że na mnie duże wrażenie zrobiło, jeżeli osoby wrzucały schemat elektroniczny i model mógł całkowicie opisać, co widzi na tym schemacie i opisać, jak to działa.

Czyli faktycznie ten po schemacie elektronicznym był w stanie całkowicie nam opisać dane urządzenie.

Inne ciekawe rozwiązanie, które pomyślałem, że od razu będzie ogromnym potencjałem dla nowego typu aplikacji, było zdjęcie lodówki i jeden z inżynierów poprosił o zamianę wszystkich rzeczy, które model widzi w lodówce na JSON, gdzie zawiera też wartości kaloryczne i ten nutrition facts, wartości odżywcze dla każdej rzeczy, którą widzi model w lodówce i wyeksportować to od razu do JSONa.

Więc tego typu rzeczy faktycznie dzieją się na naszych oczach.

Myślę, że ta jesień będzie bardzo ciekawa.

To może w końcu pozwolić mi zacząć korzystać z tego typu aplikacji, bo ja po prostu zawsze odpadam po pierwszym dniu, jak muszę się zastanawiać, ile ten plasterek czegoś tam ma.

Ja mogę tutaj powiedzieć, że zrobiłem jedną ciekawą rzecz w sobotę, bawiąc się troszeczkę tym nowszym wersjom GPT, który mamy dostępną, czyli z dostępem do internetu i tak dalej.

Mianowicie poprosiłem go, żeby ze stron partii politycznych ściągnął ich programy i zadał mi pytania.

Zciekawał się, ale nie, poczekajcie, bo teraz chciałem zobaczyć, jak do tego podejdzie model.

I żeby zadał mi pytania, nie wymieniając nasz partii, sprawdzając mój światopogląd i podpowiadając mi, która partia i dlaczego jest bliska moim poglądom.

I teraz jedna rzecz, możecie powiedzieć, Buu, że wymieniłem kwestie polityczne.

Natomiast zdałem sobie sprawę, że kilka...

Myślałem parę dla ciebie.

Kilka pomysłów, które od razu pojawiły się w mojej głowie.

Myślę, że jedna rzecz to jest SEO.

Ale druga rzecz, która od razu przyszła mi do głowy, to jest to, że powstanie cała gałąź optymalizacji stron internetowych pod modele.

Bo teraz to, co przeczytasz w człowieku, to jest jedno.

Drugie to jest to, co model potrafił wyciągnąć z tych stron i przedstawić mi w formie, którą ja jestem w stanie przyswoić.

Bo teraz o co ja tak naprawdę poprosiłem?

Żeby model przeczytał całą treść, która jest na stronie i tak to syntetyzował, żebym ja mógł to w bardzo szybkim, całkiem innym kontekście móc się do tego odnieść.

Więc myślę, że to jest pierwsza rzecz, o którą stwierdziłem, że to jest ciekawy ruch.

Wiesz co, ja tam z racji takiej, że zajmowałem się trochę marketingiem w firmie, to dalej mam jakieś powiązania z ludźmi i mam tę część bombelka, gdzie się pisze o marketingu.

To, co powiedziałeś, to już się dzieje.

Jest nawet jeden produkt polski, który działa dookoła tego, że po prostu robi optymalizację pod SEO, ale w kontekście AI, czyli plugin do chat GPT, który to prezentuje itd. i pomaga ci spozycjonować się właśnie, żebyś dobrze wychodził w tych wynikach, które on będzie zwracał.

To w ogóle jest przewidywane, że to...

Kiedyś chyba o tym zaczęliśmy rozmawiać, może prywatnie rozmawialiśmy, bo to jest duże zagrożenie dla Google, jeżeli tego dobrze nie obsłużą.

Aczkolwiek kiedyś napisałem artykuł, że Alexa zrobi to samo, no i kurde, nie zrobiła.

Jeszcze, jeszcze.

Bo to jest kwestia interfejsu, dostępu do klienta i do towaru.

Ale jeszcze odnoszę tych chat GPT i potem zamknę klamrą temat Antropica, bo wiesz, to jest bardzo dobry przykład, co powiedziałaś, ale ja zrobiłem wow, jak ktoś wrzucił, że zrobił po prostu zdjęcie kartki z zadań ze szkoły, z matematyki, taką jak rozwiązuje mój syn i powiedział rozwiąż mi to.

Wyzwanie dla nauczycieli edukacji 100% wyżej, bo teraz zadajesz po prostu zadania i dzieciaki mogą nic nie wiedzieć, a będą ci zwracały dobre wyniki.

I po prostu to paradygmat edukacji zmienia po prostu totalnie, bo nie możesz ich już zacząć uczyć takiej prostej wiedzy, bo oni ją rozwiążą.

Ale zamykając klamrą to trochę, chyba najlepiej Sebastian, świadomie, nieświadomie to podsumowałeś, mówiąc wojny modeli.

I tutaj znowu ja podkreślę coś, co mówiłem kilka razy, dla mnie najbardziej zaskakujące jest tempo, w jakim to się porusza, bo te technologie normalnie nam się rozwijały po kilka, kilkanaście lat, a tutaj jednak to jest bardzo szybko, przeszliśmy od tego, że model istnieje do model dostępny przez zamknięty sandbox typu chat GPT, model, który możesz uruchomić u siebie, do miejsca, gdzie już konkurujemy na modele i co one potrafią w oparciu o dane, a nie już na to, czy mam większy model, mniejszy, infrastrukturę itd.

No i mamy to, wiesz, ile?

Dwa lata total?

Pewnie bym powiedział, no nie, LLM się pojawiły wcześniej, ale tak w kwestii tej technologii, jak ona jest wypuszczona, ile minęło od chat GPT?

Półtorej roku?

No od początku roku, od listopada zeszłego roku, nie cały rok.

No i wiesz, po półtorej roku mamy aplikację na telefon, która może wziąć zdjęcie, opisać ci je, odnosi o edukacji, tam jest jeszcze jeden taki fantastyczny przykład, jak to będzie działać, jakie to możliwości daje.

Nie wiem, czy widzieliście to z tłumaczeniem komórki, że ktoś zrobił zdjęcie komórki ludzkiej i poprosił wytłumac, co dla sześciolatka, nie?

I tam omawia itd.

Możliwości są bardzo duże, bo teraz wiesz, wszystkie aplikacje typu rozpoznaj liście roślin, wiesz, poukładaj klocki itd., to wszystko to jest bardzo ciekawe.

Ile startupów, różnych aplikacji, które wyleciały, to zniknęło.

Amazon Antropic, no wiecie, Amazon nigdy tam pewnie nie opuścił gardy, ma swoje inne podejście.

Wygląda na to, że wchodzi do gry z tymi LLM-ami w inny sposób, bo Microsoft OpenAI, Google.

Czyli tak, Microsoft spartnerzył się z OpenAI, to jest to, co zawsze Microsoft dobrze robił, partnerstwo, tego typu rzeczy, potrafią to robić.

Google produkuje swój, mówi, nasz jest lepszy, robimy go za trzy lata.

To było złośliwe, wiem.

Amazon mówi, no jest trzecia droga, my przynajmniej na razie nie wypuszczamy swoich modeli, nie?

Mają też swoje modele, one się nazywają Titan, ale to nie jest główny bet, one są dosyć specyficzne.

Tak, ale mówią, jak będziesz chciał uruchamiać LLM-y, to my jesteśmy tą firmą, która uruchamia LLM-y i robi to najlepiej i w ogóle, nie?

No i to ciekawe, trzy strategie głównych tych, mamy jeszcze Metę, która po prostu produkuje modele Open na dużą skalę, zobaczymy za kilka lat, kto wygra.

Przechodząc do Mety, to tam jest jedna ciekawa rzecz, która się pojawiła, czyli czaty ze znanymi osobami na demo.

Meta, Facebook miało swoją konferencję no i pokazało trochę nowości, tak?

Jedną z nich jest, i przyznam szczerze, że marketingowo to jest super ruch, czyli oni zapięli swoje LLM-y do Whatsappa na przykład, nie?

I możesz sobie wziąć, tam jest przykład Shaka, i porozmawiać sobie ze Snoop Doggiem.

I kolejna myśl, którą miałem Tomek, to jest to, że to jest powoli, przechodzimy do filmu Hair, tylko że w rzeczywistości, tak?

Czyli dzieje się faktycznie to na naszych oczach, tym bardziej, że przy okazji tej konferencji gdzieś tam była informacja, że jeden z modeli był wytrenowany do bycia bardzo wspierający, praktycznie terapeutyczny, i że bardzo pozytywne rezultaty on przyniósł.

Chociaż jak dla mnie, wiecie, po tych niektórych newsach, które mieliśmy w historii, terapeutyczny i meta to dwie rzeczy, które nie jestem do końca pewien.

Meta ma u mnie kryzys zaufania, sorry.

Będą musieli dużo więcej zrobić, żebym ja mocno zaufał z takimi rzeczami jak na przykład terapię, nie?

Ale wiecie, oni też...

Przepraszam, przepraszam metę, może, nie wiem.

Na pewno jest ciekawe, bo oni też pokazują swoją drogę.

No bo patrzcie, oni wypuszczają dużo modeli, robią open source, ludzie z tego korzystają, budują na tym, nie?

Ale oni też idą mocno jednak w użycie tego do swojego ekosystemu w ramach swojego punktu zastosowań, nie?

Czyli tak naprawdę na końcu się okazuje, że dalej mamy Instagram, Facebook, Whatsapp, Quest i oni teraz patrzą jak wrzucić jak najwięcej tego LLM, AI dookoła tego, żeby to jeszcze więcej przyciągnęło użytkowników.

Ja bym powiedział, że przede wszystkim to ta konferencja pokazała, że oni jeszcze cały czas potrafią działać sprytnie.

Bo tak, zobaczyli bardzo duże zagrożenie ze strony Apple'a, więc postanowili się do niego dostosować.

Postanowili pokazać, że może to jednak nie meta, może to jednak AR, może to jednak będzie augmented.

Zobaczcie, tu jest jeden guzik czy tam pyknięcie i już mamy augmented.

Tam jest taki naprawdę smaczek, że ktoś zostawił wideo z ogłoszenia Vision Pro, z wideo z ogłoszenia tego nowego headsetu, nie?

I one były takie same, nie?

I tam Mark wyszedł i powiedział, że jest, zapomniałem pierwszego przemiannika, a drugi był bardzo mocno podkreślany, affordable, nie?

500 dolarów, nie 3000.

Tak, dokładnie.

Sorry, było, że bez kabla i affordable.

To jest ważne, bo Apple ogłosił ich sprzęt będzie drogi, ten sprzęt mety jest tańszy, no i ten sprzęt mety jest już.

Można tam sobie go zamawiać chyba już teraz, chyba za trzy dni, a jeżeli chodzi o tego nowego Guesta.

Więc to było sprytne.

Kolejna sprytna rzecz to jest to, że do tej pory te wszystkie gadżety były dosyć cringowe.

No więc co zrobili?

Postanowili nas wpłacać z Ray-Banem.

Bardzo dobry ruch uważam, no bo jeżeli ktoś miałby kupić coś, co jeszcze dodatkowo nieźle wygląda, no to pewnie zastanowi się już tylko pół raza, a nie pięć razy zanim wycupła te pieniądze z portfela.

Więc to troszkę bardzo sprytny ruch.

Kolejny sprytny ruch to jest właśnie przejście do tego fotorealizmu, czyli już nie jakieś śmieszne awatory, które wyglądają jak tam sprzed 10 lat, tylko no coś, co wygląda, coś, co robi efekt wow, bo wcześniej tego efektu wow nie było.

Więc też kolejny sprytny pomysł.

Wypuszczenie, wykorzystanie tego bardzo znanego podcastu z Friedmanem to też bardzo dobry pomysł, wykorzystanie tego jego audiensu, który on ma.

A więc generalnie tak, znaczy dla mnie ten efekt wow, on był, ale on był bardzo krótki.

W sensie moja taka zabawna, zabawny komentarz w znosie tego podcastu był taki, no tak to pewnie mógłbym pracować zdalnie, nie?

Ale też nie do końca, bo to rzeczywiście rozmowa z pełnym wrażeniem, że siedzi się naprzeciwko żyjącej osoby, ale no ta interakcja tylko i wyłącznie polega na tym, czy tą osobę widzimy.

Natomiast ja ciągle nie widzę tam takiego dobrego, dużego value proposition.

Natomiast no trzeba im przyznać, że nie zasypują górzek w popiele, tylko działają.

Tak?

No to wiesz, tutaj na pewno mnie zaskoczyli tym, że jednak pokazali, znaczy fajnie, że odpuścili, wiesz, metaverse, metaverse, metaverse, nie?

Trochę tak, takie pchanie metaverse jako nie wiadomo czego.

Skupili się na jakichś konkretach.

Odpuścili nowy hardware, który, ok, ty powiedziałaś, grają z konkurencją i tak dalej.

Okulary, kolejne podejście do okularów.

Dobrze wyglądają, to jest na pewno dobry punkt, nie?

Ja sam używam Ray-Banów akurat, ale ja mam tutaj swoje concerns, nie?

To znaczy ja po pierwsze nie potrzebuję takiego urządzenia na stałe włączonego, no i to jest to, co, bo wiecie, tak naprawdę Google Glasses oprócz wszystkiego innego ubiło to, że to jest kwestia normy społecznej akceptowania tego, nie?

Ja naprawdę chciałbym wiedzieć, że ktoś chodzi z okularami, które na żywo streamują, nie?

I to musi być jasno widoczne i jeszcze, wiesz, nie wiem, tak wtedy, ale powinno być jakiś sposób, wiesz, typu wyłączyć, nie?

To się będzie działo, zobaczymy jak społeczeństwo na to zareaguje.

Obawiam się, że zareaguje to zjastycznie.

No, ale to już jest kwestia moich poglądów i tak dalej.

Jedna rzecz faktycznie, popatrz, że jednak to, co meta wszystko robi, tak jak powiedziałem wcześniej, ale to jest mój bajas, to buduje dalej wehikuł do monetyzowania swojego towaru pod tytułem użytkownicy, tak?

Zamknijmy w naszym systemie jak najwięcej informacji o nich, zachęćmy ich do streamowania i tak dalej.

Dobrze, zobaczymy, gdzie nas to doprowadzi.

Na pewno fajnie, że coś się dzieje.

Następny raz musimy przygotować coś nie o AI, ale to będzie trudno, bo wszystko się dzieje w AI w te ostatnio.

No, co mam powiedzieć?

Chyba, że...

Ale coś wymyślimy.

Wojtek?

A, bo podniosłeś łapkę, to wytnę.

Czas minął szybko przy porannej kawie.

Dziękuję wam za rozmowę.

Jak zwykle, no ja zmieniłem kilka swoich albo usłyszałem coś nowego.

Mam nadzieję, że ci, którzy nas słyszeli też.

Linki, oprócz tych, które pojawiły się na ekranie, wszystkie będą na dole.

Pamiętajcie, jak jesteście tu pierwszy raz, nie pierwszy raz, kliknijcie kciuk w górę, zamykajcie kciuk, będziecie mieli okazję zobaczyć kolejny odcinek.

Nie zapomnijcie też o subskrybcji.

Kliknijcie kciuk w górę, zamykajcie kciuk, będziecie mieli okazję zobaczyć kolejny odcinek.

Nie zapomnijcie też o subskrybowaniu.

Nie zapomnijcie też o komentarzu.

Creators and Guests

Sebastian Gębski
Host
Sebastian Gębski
Geek, engineer, blogger, codefella, serial reader. In the daylight: Principal SA for @awscloud (Startups, CEE). ex-CTO. I speak here for myself only.
Tomasz Onyszko
Host
Tomasz Onyszko
Founder, entrepreneur and CTO - I write about building company and career in tech. I observe tech and society and share my opinions
Wojtek Ptak
Host
Wojtek Ptak
Learner, teams & products builder, DDD & ML mixer, leader, contributor, and freeride biker by ❤️ working as @RevolutApp’s Head of Engineering. He/him.
Brew #7: Przeczytane/zobaczone, ThoughtWorks Radar - subiektywny review, Amazon kupuje Anthropic!
Broadcast by