{"id":11448,"date":"2025-06-09T09:20:06","date_gmt":"2025-06-09T07:20:06","guid":{"rendered":"https:\/\/haimagazine.com\/?p=11448"},"modified":"2025-06-18T09:02:37","modified_gmt":"2025-06-18T07:02:37","slug":"dzialo-sie-w-ai-5","status":"publish","type":"post","link":"https:\/\/haimagazine.com\/pl\/ai_news\/dzialo-sie-w-ai-5\/","title":{"rendered":"Dzia\u0142o si\u0119 w AI #5"},"content":{"rendered":"<h3 class=\"wp-block-heading\">Marzec<\/h3><h4 class=\"wp-block-heading\"><strong>GPT-4o: obraz do poprawki w czasie rzeczywistym<\/strong><\/h4><p>Je\u015bli luty nale\u017ca\u0142 do Sory, to marzec skrad\u0142 <strong><a href=\"https:\/\/www.indiandailybuzz.com\/OpenAI-Launches-GPT4o-a-Multimodal-AI-Model-Capable-of-Text-Audio-and-Image-Generation-with-Humanlike-Response-Time\/3\/13578\" data-type=\"link\" data-id=\"https:\/\/www.indiandailybuzz.com\/OpenAI-Launches-GPT4o-a-Multimodal-AI-Model-Capable-of-Text-Audio-and-Image-Generation-with-Humanlike-Response-Time\/3\/13578\" target=\"_blank\" rel=\"noopener\"><mark style=\"background-color:#82D65E\" class=\"has-inline-color has-contrast-color\">GPT-4o<\/mark><\/a><\/strong> \u2013 z now\u0105 funkcjonalno\u015bci\u0105, dzi\u0119ki kt\u00f3rej model potrafi nie tylko generowa\u0107 jeszcze lepsze obrazy, ale tak\u017ce edytowa\u0107 je \u201ew locie\u201d.  Wystarczy klikn\u0105\u0107 dowolny element, aby go usun\u0105\u0107, zast\u0105pi\u0107, doda\u0107 nowy lub zmieni\u0107 t\u0142o. Szczeg\u00f3lnie istotne s\u0105 usprawnienia w generowaniu tekst\u00f3w graficznych, kt\u00f3re dot\u0105d by\u0142y pi\u0119t\u0105 achillesow\u0105 wielu modeli. GPT-4o rozwi\u0105zuje ten problem, a dodatkowo potrafi iteracyjnie dopracowywa\u0107 obrazy w jednej sesji, bez potrzeby korzystania z osobnych aplikacji graficznych. OpenAI deklaruje, \u017ce model by\u0142 szkolony wy\u0142\u0105cznie na licencjonowanych danych (np. Shutterstock) i ka\u017cda wygenerowana grafika zawiera metadane C2PA, co zwi\u0119ksza transparentno\u015b\u0107 i bezpiecze\u0144stwo u\u017cytkowania.<\/p><p>Wraz z premier\u0105 GPT-4o w sieci rozla\u0142a si\u0119 fala obraz\u00f3w generowanych w stylu Ghibli \u2013popularno\u015b\u0107 nowej funkcji by\u0142a tak du\u017ca, \u017ce OpenAI musia\u0142o wprowadzi\u0107 limity.<\/p><p>Funkcja spotka\u0142a si\u0119 jednak nie tylko z entuzjazmem, lecz tak\u017ce z krytyk\u0105. Pytanie o granic\u0119 mi\u0119dzy inspiracj\u0105 a naruszeniem praw autorskich powr\u00f3ci\u0142o z now\u0105 si\u0142\u0105 \u2013 i nie znajdzie \u0142atwej odpowiedzi.<\/p><figure class=\"wp-block-image size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"576\" src=\"https:\/\/haimagazine.com\/wp-content\/uploads\/2025\/06\/3.GPT4c-1024x576.png\" alt=\"\" class=\"wp-image-11454\" srcset=\"https:\/\/haimagazine.com\/wp-content\/uploads\/2025\/06\/3.GPT4c-1024x576.png 1024w, https:\/\/haimagazine.com\/wp-content\/uploads\/2025\/06\/3.GPT4c-300x169.png 300w, https:\/\/haimagazine.com\/wp-content\/uploads\/2025\/06\/3.GPT4c-768x432.png 768w, https:\/\/haimagazine.com\/wp-content\/uploads\/2025\/06\/3.GPT4c-600x338.png 600w, https:\/\/haimagazine.com\/wp-content\/uploads\/2025\/06\/3.GPT4c.png 1200w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/figure><h4 class=\"wp-block-heading\"><strong>xAI przejmuje X i buduje ekosystem danych<\/strong><\/h4><p>Elon Musk sprzeda\u0142 platform\u0119 X (dawniej Twitter) swojej w\u0142asnej firmie \u2013 xAI (co oznacza, \u017ce formalnie traci bezpo\u015brednie w\u0142a\u015bcicielstwo, ale nadal kontroluje platform\u0119 przez swoj\u0105 firm\u0119). Celem transakcji jest uzyskanie przez xAI dost\u0119pu do danych setek milion\u00f3w u\u017cytkownik\u00f3w. To z kolei paliwo do rozwoju autorskich modeli j\u0119zykowych, takich jak Grok, i krok w kierunku pe\u0142nej niezale\u017cno\u015bci od zewn\u0119trznych \u017ar\u00f3de\u0142 danych. Wycena xAI wzros\u0142a do 80 mld dolar\u00f3w, co pokazuje, \u017ce rynek dostrzega w tym ruchu nie tylko technologiczn\u0105, ale i biznesow\u0105 przewag\u0119.<\/p><p>Kilka dni po og\u0142oszeniu przej\u0119cia X, Musk zakomunikowa\u0142 kolejny krok \u2013 xAI kupi\u0142 startup Hotshot, specjalizuj\u0105cy si\u0119 w generowaniu film\u00f3w z tekstu. Modele Hotshot-XL, Act One i Benchmark umo\u017cliwiaj\u0105 tworzenie animowanych klip\u00f3w i film\u00f3w reklamowych z prostych prompt\u00f3w, co stawia je w jednym szeregu z rozwijanymi przez OpenAI (Sora) i Google (Veo 2) rozwi\u0105zaniami.<\/p><p>W efekcie firma Muska ma dzi\u015b pe\u0142ny zestaw zasob\u00f3w: dane (X), modele j\u0119zykowe (Grok) i komponenty multimedialne (Hotshot). To mo\u017ce oznacza\u0107, \u017ce xAI staje si\u0119 jedn\u0105 z najpowa\u017cniejszych platform all-in-one w \u015bwiecie AI \u2013 i realnym konkurentem dla Google i OpenAI.<\/p><h4 class=\"wp-block-heading\"><strong>Perplexity \u2013<\/strong> <strong>wyszukiwanie w nowej ods\u0142onie<\/strong><\/h4><p>Na koniec miesi\u0105ca mocny akcent z segmentu wyszukiwania informacji. <a href=\"https:\/\/www.makeuseof.com\/perplexity-ai-best-ai-powered-google-search-tool\/\" data-type=\"link\" data-id=\"https:\/\/www.makeuseof.com\/perplexity-ai-best-ai-powered-google-search-tool\/\" target=\"_blank\" rel=\"noopener\"><mark style=\"background-color:#82D65E\" class=\"has-inline-color has-contrast-color\"><strong>Perplexity<\/strong><\/mark><\/a> \u2013 alternatywa dla Google \u2013 zaczyna budowa\u0107 nowy model wyszukiwarki. Zamiast list link\u00f3w i wynik\u00f3w sponsorowanych, u\u017cytkownicy otrzymuj\u0105 interaktywne odpowiedzi: karty z ofertami, karuzele obraz\u00f3w, wideo i opcj\u0119 dzia\u0142ania bez opuszczania wyszukiwarki.<\/p><p>Szukasz hotelu? Mo\u017cesz od razu go zarezerwowa\u0107. Widz\u0105c ofert\u0119 pracy \u2013 aplikujesz jednym klikni\u0119ciem. Zakupy, podr\u00f3\u017ce, planowanie wydarze\u0144 \u2013 wszystko odbywa si\u0119 w ramach jednej sesji. Strategia Perplexity opiera si\u0119 na u\u017cyteczno\u015bci, a nie na systemie reklamowym, kt\u00f3ry od lat rz\u0105dzi wynikami Google. Czy to wystarczy, by rzuci\u0107 wyzwanie gigantowi? Na razie pokazuje, \u017ce AI mo\u017ce redefiniowa\u0107 spos\u00f3b, w jaki szukamy informacji.<\/p><figure class=\"wp-block-image size-large is-resized\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"512\" src=\"https:\/\/haimagazine.com\/wp-content\/uploads\/2025\/06\/3a.perplexity-1024x512.jpg\" alt=\"\" class=\"wp-image-11457\" style=\"width:1265px;height:auto\" srcset=\"https:\/\/haimagazine.com\/wp-content\/uploads\/2025\/06\/3a.perplexity-1024x512.jpg 1024w, https:\/\/haimagazine.com\/wp-content\/uploads\/2025\/06\/3a.perplexity-300x150.jpg 300w, https:\/\/haimagazine.com\/wp-content\/uploads\/2025\/06\/3a.perplexity-768x384.jpg 768w, https:\/\/haimagazine.com\/wp-content\/uploads\/2025\/06\/3a.perplexity-1536x768.jpg 1536w, https:\/\/haimagazine.com\/wp-content\/uploads\/2025\/06\/3a.perplexity-600x300.jpg 600w, https:\/\/haimagazine.com\/wp-content\/uploads\/2025\/06\/3a.perplexity.jpg 1680w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/figure><h3 class=\"wp-block-heading\">Kwiecie\u0144<\/h3><h4 class=\"wp-block-heading\"><strong>Midjourney V7 \u2013 riposta na GPT-4o<\/strong><\/h4><p>Po marcowym boomie na generowanie obraz\u00f3w GPT-4o <strong>Midjourney<\/strong> nie pozosta\u0142 d\u0142u\u017cny \u2013 na pocz\u0105tku kwietnia wypu\u015bci\u0142 <mark style=\"background-color:#82D65E\" class=\"has-inline-color has-contrast-color\"><a href=\"https:\/\/updates.midjourney.com\/v7-alpha\/\" data-type=\"link\" data-id=\"https:\/\/updates.midjourney.com\/v7-alpha\/\" target=\"_blank\" rel=\"noopener\"><strong>wersj\u0119 V7<\/strong><\/a>,<\/mark> z now\u0105 architektur\u0105, lepszym rozumieniem prompt\u00f3w oraz wyra\u017an\u0105 popraw\u0105 odwzorowania detali (sp\u00f3jniejsze proporcje cia\u0142a, bardziej realistyczne tekstury, dopracowane szczeg\u00f3\u0142y). Nowo\u015bci\u0105 jest r\u00f3wnie\u017c mo\u017cliwo\u015b\u0107 personalizacji stylu oraz edycja wygenerowanych obraz\u00f3w za pomoc\u0105 komend g\u0142osowych.<\/p><figure class=\"wp-block-image size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"513\" src=\"https:\/\/haimagazine.com\/wp-content\/uploads\/2025\/06\/Midjourney-1024x513.png\" alt=\"\" class=\"wp-image-11461\" srcset=\"https:\/\/haimagazine.com\/wp-content\/uploads\/2025\/06\/Midjourney-1024x513.png 1024w, https:\/\/haimagazine.com\/wp-content\/uploads\/2025\/06\/Midjourney-300x150.png 300w, https:\/\/haimagazine.com\/wp-content\/uploads\/2025\/06\/Midjourney-768x384.png 768w, https:\/\/haimagazine.com\/wp-content\/uploads\/2025\/06\/Midjourney-1536x769.png 1536w, https:\/\/haimagazine.com\/wp-content\/uploads\/2025\/06\/Midjourney-600x300.png 600w, https:\/\/haimagazine.com\/wp-content\/uploads\/2025\/06\/Midjourney.png 2000w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/figure><h4 class=\"wp-block-heading\"><strong>OpenAI: nowe modele<\/strong><\/h4><p>W tym samym czasie OpenAI rozpocz\u0119\u0142o kwiecie\u0144 od serii premier technologicznych. Najpierw \u015bwiat\u0142o dzienne ujrza\u0142 model <strong>GPT-4.1<\/strong> \u2013 szybszy, ta\u0144szy i zoptymalizowany pod k\u0105tem zada\u0144 programistycznych. Obs\u0142uguje kontekst do 1 mln token\u00f3w, a jego l\u017cejsze wersje \u2013 <strong>Mini<\/strong> i <strong>Nano<\/strong> \u2013 oferuj\u0105 wysok\u0105 wydajno\u015b\u0107 przy minimalnych op\u00f3\u017anieniach, idealn\u0105 dla zespo\u0142\u00f3w deweloperskich o ograniczonych zasobach.<\/p><p>Zaledwie dwa dni p\u00f3\u017aniej OpenAI zaprezentowa\u0142o modele o3 i o4-mini, ukierunkowane na g\u0142\u0119bokie rozumowanie, analiz\u0119 wizualn\u0105 i rozwi\u0105zywanie problem\u00f3w matematycznych. o3 potrafi analizowa\u0107 wykresy, szkice czy r\u0119czne notatki, a o4-mini zdobywa laury w konkursach AIME. Uzupe\u0142nieniem tego ekosystemu jest Codex CLI \u2013 otwarto\u017ar\u00f3d\u0142owy agent dzia\u0142aj\u0105cy w terminalu, kt\u00f3ry automatyzuje kodowanie i edycj\u0119 plik\u00f3w. Modele OpenAI przestaj\u0105 by\u0107 tylko silnikami \u2013 staj\u0105 si\u0119 fundamentem nowego \u015brodowiska pracy.<\/p><h4 class=\"wp-block-heading\"><strong>Feed jak z Twittera \u2013 kolejny krok OpenAI<\/strong><\/h4><p>W\u0142a\u015bnie na tym tle \u2013 rosn\u0105cej funkcjonalno\u015bci modeli \u2013 pojawi\u0142y si\u0119 doniesienia o testach spo\u0142eczno\u015bciowego <strong>feedu AI<\/strong>, rozwijanego przez OpenAI. Platforma ma przypomina\u0107 Twittera: z dynamicznym strumieniem tre\u015bci generowanych przez ChatGPT i mo\u017cliwo\u015bci\u0105 interakcji wizualnych. W kwietniu Sam Altman nie zdradza\u0142 jeszcze, czy b\u0119dzie to osobna aplikacja, czy cz\u0119\u015b\u0107 ChatGPT.<\/p><h4 class=\"wp-block-heading\"><strong>Meta i Anthropic: uzupe\u0142nianie uk\u0142adanki<\/strong><\/h4><p>Na tym dynamicznym tle Meta pokaza\u0142a w\u0142asn\u0105 odpowied\u017a \u2013 rodzin\u0119 modeli<strong> Llama 4<\/strong>, zbudowan\u0105 na architekturze Mixture-of-Experts. Lekki Scout i pot\u0119\u017cniejszy Maverick obs\u0142uguj\u0105 kontekst do 10 mln token\u00f3w i rozumiej\u0105 obrazy (cho\u0107 generuj\u0105 tylko tekst). Modele zosta\u0142y ju\u017c zintegrowane z WhatsAppem, Messengerem i Instagramem. Na horyzoncie czeka Behemoth \u2013 trenowany na 2 bilionach parametr\u00f3w model, kt\u00f3ry w testach STEM wyprzedza GPT-4.5. Meta stawia na r\u00f3wnowag\u0119 mi\u0119dzy otwarto\u015bci\u0105 a kontrol\u0105 komercyjnego wykorzystania \u2013 buduj\u0105c nie tylko modele, ale polityk\u0119 wdra\u017cania AI.<\/p><p>Tymczasem Anthropic skoncentrowa\u0142 si\u0119 na automatyzacji pracy biurowej. Nowa funkcja \u201eResearch\u201d w modelu Claude umo\u017cliwia przeszukiwanie dokument\u00f3w oraz sieci z automatycznym cytowaniem \u017ar\u00f3de\u0142. Dzi\u0119ki integracji z Google Workspace, Claude analizuje e-maile, kalendarze i pliki, wspieraj\u0105c planowanie i organizacj\u0119 pracy \u2013 tam, gdzie dot\u0105d potrzeba by\u0142o kilku r\u00f3\u017cnych narz\u0119dzi.<\/p><h3 class=\"wp-block-heading\">Maj<\/h3><h4 class=\"wp-block-heading\"><strong>Google I\/O 2025: Gemini, obraz, kod i rzeczywisto\u015b\u0107 rozszerzona<\/strong><\/h4><p>20 i 21 maja w kalifornijskim Shoreline Amphitheatre odby\u0142a si\u0119 konferencja <strong>Google I\/O 2025<\/strong> \u2013 jedno z najwa\u017cniejszych wydarze\u0144 bran\u017cowych tego roku. Flagow\u0105 premier\u0105 by\u0142o rozszerzenie mo\u017cliwo\u015bci modeli Gemini 2.5 Pro i Flash, kt\u00f3re \u2013 jak podkre\u015blano \u2013 przewy\u017cszaj\u0105 konkurencj\u0119 w zadaniach zwi\u0105zanych z kodowaniem, rozumowaniem i multimodalno\u015bci\u0105. Gemini Pro zyska\u0142 tryb \u201eDeep Think\u201d dla pog\u0142\u0119bionej analizy i rozumienia kontekstu, natomiast Flash \u2013 jego l\u017cejszy, szybszy brat \u2013 zosta\u0142 zoptymalizowany pod k\u0105tem oszcz\u0119dno\u015bci token\u00f3w. Oba modele oferuj\u0105 te\u017c nowy tryb \u201eAgent Mode\u201d, kt\u00f3ry pozwala u\u017cytkownikom zleca\u0107 AI konkretne zadania, takie jak planowanie spotka\u0144 czy wyszukiwanie mieszka\u0144. W ramach tej ofensywy Google og\u0142osi\u0142o r\u00f3wnie\u017c nowo\u015bci w wyszukiwarce: AI Mode, kt\u00f3ry zamienia klasyczne zapytania w interaktywn\u0105 konwersacj\u0119. U\u017cytkownicy mog\u0105 teraz np. wirtualnie przymierzy\u0107 ubranie czy sfinalizowa\u0107 zakup bez wychodzenia z przegl\u0105darki \u2013 ca\u0142o\u015b\u0107 nap\u0119dzana przez Gemini. Tw\u00f3rcy z kolei dostali do r\u0105k ca\u0142y zestaw nowych narz\u0119dzi. Imagen 4 to nowy model do generowania obraz\u00f3w, Veo 3 \u2013 narz\u0119dzie do tworzenia film\u00f3w z d\u017awi\u0119kiem, a Flow \u2013 aplikacja do budowania dynamicznych klip\u00f3w wideo z wykorzystaniem AI. Programi\u015bci dostali Julesa \u2013 nowego asystenta kodowania, kt\u00f3ry integruje si\u0119 z Gemini, przewiduj\u0105c intencje i dopasowuj\u0105c styl kodu do konkretnego projektu. Konferencja mia\u0142a te\u017c sw\u00f3j futurystyczny akcent: prototyp okular\u00f3w Android XR, rozwijanych we wsp\u00f3\u0142pracy z Gentle Monster i Warby Parker, oraz zapowied\u017a systemu Google Beam \u2013 tr\u00f3jwymiarowych wideorozm\u00f3w bez gogli, w czasie rzeczywistym. Google nie tylko pokaza\u0142o, jak AI mo\u017ce przetwarza\u0107 informacje \u2013 ale te\u017c, jak mo\u017ce je pokazywa\u0107.<\/p><figure class=\"wp-block-image size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"576\" src=\"https:\/\/haimagazine.com\/wp-content\/uploads\/2025\/06\/googleVR-1024x576.jpg\" alt=\"\" class=\"wp-image-11465\" srcset=\"https:\/\/haimagazine.com\/wp-content\/uploads\/2025\/06\/googleVR-1024x576.jpg 1024w, https:\/\/haimagazine.com\/wp-content\/uploads\/2025\/06\/googleVR-300x169.jpg 300w, https:\/\/haimagazine.com\/wp-content\/uploads\/2025\/06\/googleVR-768x432.jpg 768w, https:\/\/haimagazine.com\/wp-content\/uploads\/2025\/06\/googleVR-600x338.jpg 600w, https:\/\/haimagazine.com\/wp-content\/uploads\/2025\/06\/googleVR.jpg 1280w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/figure><p>W tym kontek\u015bcie warto wspomnie\u0107 o <strong>AlphaEvolve<\/strong> \u2013 systemie zaprezentowanym przez DeepMind niemal r\u00f3wnolegle z I\/O. AlphaEvolve to AI stworzona do rozwi\u0105zywania z\u0142o\u017conych problem\u00f3w matematycznych, naukowych i in\u017cynieryjnych. Dzia\u0142a jak zesp\u00f3\u0142 badawczy: generuje rozwi\u0105zania, testuje je, wybiera najlepsze i optymalizuje. W testach poradzi\u0142 sobie z 75% problem\u00f3w z zestawu benchmarkowego, a w 20% przypadk\u00f3w zaproponowa\u0142 lepsze rozwi\u0105zania ni\u017c znane wcze\u015bniej. W jednym z praktycznych zastosowa\u0144, system odzyska\u0142 0,7% zasob\u00f3w obliczeniowych w centrach danych Google\u2019a \u2013 co w tej skali przek\u0142ada si\u0119 na olbrzymie oszcz\u0119dno\u015bci energetyczne.<\/p><h4 class=\"wp-block-heading\"><strong>Anthropic pokazuje pazur tu\u017c po Google I\/O<\/strong><\/h4><p>Podczas gdy ca\u0142y \u015bwiat patrzy\u0142 na nowo\u015bci od Google&#8217;a zaprezentowane na I\/O 2025, Anthropic nie pr\u00f3\u017cnowa\u0142o. Firma zaprezentowa\u0142a <strong><a href=\"https:\/\/www.anthropic.com\/news\/claude-4?utm_source=newsletter&amp;utm_medium=email&amp;utm_term=2025-06-09&amp;utm_campaign=+Google+pozamiata%C5%82o+konkurencj%C4%99+z+nowym+modelem+AI+-+Veo+3+\" data-type=\"link\" data-id=\"https:\/\/www.anthropic.com\/news\/claude-4?utm_source=newsletter&amp;utm_medium=email&amp;utm_term=2025-06-09&amp;utm_campaign=+Google+pozamiata%C5%82o+konkurencj%C4%99+z+nowym+modelem+AI+-+Veo+3+\" target=\"_blank\" rel=\"noopener\"><mark style=\"background-color:#82D65E\" class=\"has-inline-color has-contrast-color\">Claude Opus 4<\/mark><\/a><\/strong> \u2013 sw\u00f3j najpot\u0119\u017cniejszy model AI, kt\u00f3ry mo\u017ce pracowa\u0107 nieprzerwanie nawet przez 7 godzin bez utraty sp\u00f3jno\u015bci. To szczeg\u00f3lnie wa\u017cne w kontek\u015bcie rosn\u0105cego zapotrzebowania na \u201eagent\u00f3w AI\u201d, czyli systemy dzia\u0142aj\u0105ce autonomicznie, d\u0142ugo i precyzyjnie. Claude 4 potrafi nie tylko pisa\u0107 kod i analizowa\u0107 z\u0142o\u017cone dane, ale te\u017c samodzielnie si\u0119ga\u0107 po narz\u0119dzia (np. wyszukiwarki, pliki czy \u015brodowiska wykonawcze). W testach benchmarkowych wyprzedzi\u0142 konkurencj\u0119, co czyni go jednym z najlepszych modeli do kodowania na rynku. Nowo\u015bci\u0105 jest funkcja \u201eextended thinking\u201d \u2013 tryb g\u0142\u0119bszego my\u015blenia z u\u017cyciem zewn\u0119trznych narz\u0119dzi. Claude 4 jest dost\u0119pny przez API, Amazon Bedrock i Google Cloud Vertex AI.<\/p><h4 class=\"wp-block-heading\"><strong>OpenAI: chatGPT wkracza w e-commerce i programowanie<\/strong><\/h4><p>Podczas gdy Google rozwija\u0142o multimodalno\u015b\u0107 i do\u015bwiadczenia immersyjne, a Anthropic pokaza\u0142o najbardziej wytrzyma\u0142y model do d\u0142ugiej pracy, OpenAI zrobi\u0142o krok w stron\u0119 konsumenckiego mainstreamu. W maju w ChatGPT pojawi\u0142a si\u0119 nowa funkcja: <strong>interaktywny modu\u0142 zakupowy<\/strong>. U\u017cytkownicy mog\u0105 teraz przeszukiwa\u0107 produkty, por\u00f3wnywa\u0107 ceny i kupowa\u0107 bezpo\u015brednio z poziomu czatu.<\/p><p>R\u00f3wnolegle OpenAI udost\u0119pni\u0142o <strong>Codex<\/strong> \u2013 pot\u0119\u017cnego agenta programistycznego, dzia\u0142aj\u0105cego w chmurze. Zasilany przez model codex-1 (wariant o3 zoptymalizowany pod k\u0105tem kodowania), Codex potrafi samodzielnie realizowa\u0107 wiele zada\u0144 jednocze\u015bnie: od pisania funkcji i naprawy b\u0142\u0119d\u00f3w po przeprowadzanie test\u00f3w. <\/p><h4 class=\"wp-block-heading\"><strong>Bielik 2.5: polski agent AI ro\u015bnie w si\u0142\u0119<\/strong><\/h4><p>A \u017ceby nie by\u0142o, \u017ce wszystko dzieje si\u0119 tylko w Kalifornii \u2013 polska scena AI te\u017c mia\u0142a swoje pi\u0119\u0107 minut. Podczas konferencji GOSIM AI Spotlight (6\u20137 maja, Pary\u017c) zaprezentowano <strong>now\u0105 generacj\u0119 modelu Bielik 2.5<\/strong>, wraz z dwiema l\u017cejszymi odmianami. Nowe Bieliki potrafi\u0105 dzia\u0142a\u0107 jako pe\u0142noprawni agenci \u2013 od chatbot\u00f3w, przez asystent\u00f3w g\u0142osowych, po zaawansowane systemy automatyzacji zada\u0144.<\/p><p><\/p>","protected":false},"excerpt":{"rendered":"<p>Google, Meta, OpenAI i Anthropic \u2013 do kogo nale\u017ca\u0142a wiosna AI 2025?<\/p>\n","protected":false},"author":234,"featured_media":11449,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"rank_math_lock_modified_date":false,"footnotes":""},"categories":[755],"tags":[83,765,766,172,64,186],"popular":[],"difficulty-level":[36],"ppma_author":[544],"class_list":["post-11448","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-ai_news","tag-ai","tag-anthropic","tag-google-i-o-2025","tag-meta-2","tag-openai","tag-perplexity","difficulty-level-easy"],"acf":[],"authors":[{"term_id":544,"user_id":234,"is_guest":0,"slug":"joanna-kostecka","display_name":"Joanna Kostecka","avatar_url":"https:\/\/secure.gravatar.com\/avatar\/ae43ac99602c46ef6be2602397c7de5877435d3d69dbab3f38579670340b696e?s=96&d=mm&r=g","first_name":"Joanna","last_name":"Kostecka","user_url":"","job_title":"","description":"Z wykszta\u0142cenia polonistka, graficzka, marketingowiec i wdro\u017ceniowiec rozwi\u0105za\u0144 AI. Prezeska Fundacji Fabryka Dobrych Projekt\u00f3w, propagatorka inkluzywno\u015bci. Entuzjastka AI i VR, szczeg\u00f3lnie w obszarze medycyny i healthcare."}],"_links":{"self":[{"href":"https:\/\/haimagazine.com\/pl\/wp-json\/wp\/v2\/posts\/11448","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/haimagazine.com\/pl\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/haimagazine.com\/pl\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/haimagazine.com\/pl\/wp-json\/wp\/v2\/users\/234"}],"replies":[{"embeddable":true,"href":"https:\/\/haimagazine.com\/pl\/wp-json\/wp\/v2\/comments?post=11448"}],"version-history":[{"count":15,"href":"https:\/\/haimagazine.com\/pl\/wp-json\/wp\/v2\/posts\/11448\/revisions"}],"predecessor-version":[{"id":11485,"href":"https:\/\/haimagazine.com\/pl\/wp-json\/wp\/v2\/posts\/11448\/revisions\/11485"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/haimagazine.com\/pl\/wp-json\/wp\/v2\/media\/11449"}],"wp:attachment":[{"href":"https:\/\/haimagazine.com\/pl\/wp-json\/wp\/v2\/media?parent=11448"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/haimagazine.com\/pl\/wp-json\/wp\/v2\/categories?post=11448"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/haimagazine.com\/pl\/wp-json\/wp\/v2\/tags?post=11448"},{"taxonomy":"popular","embeddable":true,"href":"https:\/\/haimagazine.com\/pl\/wp-json\/wp\/v2\/popular?post=11448"},{"taxonomy":"difficulty-level","embeddable":true,"href":"https:\/\/haimagazine.com\/pl\/wp-json\/wp\/v2\/difficulty-level?post=11448"},{"taxonomy":"author","embeddable":true,"href":"https:\/\/haimagazine.com\/pl\/wp-json\/wp\/v2\/ppma_author?post=11448"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}