Toolverse
Wróć na blog

DeepSeek V4, kontrowersje Anthropic i wyścig otwartych modeli AI — co się dzieje w branży?

deepseekanthropicotwarte modele aillmai api

DeepSeek V4, kontrowersje Anthropic i wyścig otwartych modeli AI — co się dzieje w branży?

Ostatnie tygodnie w świecie sztucznej inteligencji przyniosły lawinę wydarzeń: nowe modele otwarte doganiające komercyjną czołówkę, głośną wpadkę Anthropic ze śledzeniem kodu użytkowników oraz geopolityczne tarcia wokół przejęć technologicznych. Oto co warto wiedzieć — szczególnie jeśli planujesz wdrożenia AI w polskiej firmie.

Otwarte modele coraz groźniejsze dla komercyjnej czołówki

DeepSeek wypuścił kolejną generację swojego flagowego modelu — V4 — z oknem kontekstowym sięgającym miliona tokenów i wynikami benchmarków bliskimi aktualnej czołówce rynkowej. To, co przykuwa uwagę menedżerów i architektów systemów, to jednak przede wszystkim cennik: koszt przetwarzania miliona tokenów wejściowych wynosi zaledwie 1,74 USD, podczas gdy porównywalne modele zamknięte kosztują od 2,50 do 5 USD za tę samą ilość. Różnica w tokenach wyjściowych jest jeszcze bardziej dotkliwa — DeepSeek pobiera 3,48 USD, gdzie rywale sięgają nawet 30 USD.

Dla polskich firm korzystających z API do masowego przetwarzania dokumentów, automatyzacji obsługi klienta czy analizy danych, te różnice przekładają się bezpośrednio na rachunki. Przy milionach wywołań miesięcznie oszczędności mogą sięgać dziesiątek tysięcy złotych. Co więcej, model jest open-weight, co oznacza możliwość uruchomienia go na własnej infrastrukturze — istotny argument przy wymaganiach RODO i wewnętrznych politykach bezpieczeństwa danych.

W tym samym tygodniu NVIDIA opublikowała Nemotron 3 Nano Omni — otwarty model multimodalny obsługujący tekst, obraz, dźwięk i wideo, zaprojektowany z myślą o agentach AI. Mistral z kolei udostępnił model Medium 3.5 jako open-weight, celując w zastosowania agentowe w środowiskach takich jak OpenClaw czy Hermes. Do tego Poolside AI wypuścił Laguna XS2 (33 mld parametrów, dostępny bezpłatnie) oraz Laguna M1. Rynek otwartych modeli wchodzi w fazę dojrzałości — przed dwoma laty powszechna była opinia, że open-source nigdy nie dotrze do poziomu modeli komercyjnych. Dziś ta teza jest trudna do obrony.

Anthropic i afera z wykrywaniem harnessów — lekcja dla developerów

Najgłośniejszą wpadką tygodnia stała się sprawa Anthropic, która wstrząsnęła społecznością developerów. Okazało się, że system analizuje kod użytkowników pod kątem obecności słów kluczowych związanych z konkurencyjnymi frameworkami (m.in. Hermes, OpenClaw). Gdy wykrył takie odniesienia — nawet w nazwie pliku w historii commitów — automatycznie ograniczał dostęp lub generował dodatkowe opłaty, niezależnie od faktycznego zużycia w ramach wykupionego planu.

Jeden z użytkowników planu Claude Max za 200 dolarów miesięcznie otrzymał dodatkowy rachunek na ponad 200 dolarów, mimo że według panelu zużył mniej niż 15% wykupionego limitu. Przyczyną był ciąg znaków "Hermes.md" w wiadomości commita. Anthropic początkowo odmówił zwrotu, powołując się na politykę nierekompensowania błędów technicznych. Dopiero gdy sprawa rozeszła się po sieci z zasięgiem przekraczającym milion wyświetleń, firma zmieniła stanowisko i zaoferowała zwrot plus dodatkowy miesiąc kredytu.

Dla polskich programistów i firm korzystających z Claude Code to ważna lekcja: warto świadomie zarządzać środowiskami deweloperskimi i monitorować anomalie w rozliczeniach. Ironię sytuacji podkreśla fakt, że Anthropic konsekwentnie pozycjonuje się jako lider etycznego podejścia do AI — tymczasem praktyka analizowania kodu klientów w poszukiwaniu „nielojalnych" słów kluczowych stoi w wyraźnej sprzeczności z tym wizerunkiem.

Geopolityka AI: Google i Pentagon, Chiny blokują Meta

Na poziomie strategicznym tydzień zdominowały dwa wątki geopolityczne. Google podpisał umowę z Pentagonem zezwalającą na użycie swoich modeli do celów związanych z informacjami niejawnym — posunięcie sprzeczne z pierwotnym porozumieniem z założycielami DeepMind z 2014 roku, którzy wyrazili zgodę na akwizycję właśnie pod warunkiem nieużywania technologii do celów militarnych i inwigilacyjnych. Ponad 600 pracowników Google podpisało petycję do Sundara Pichaia z żądaniem odmowy. Firma znalazła się jednak między młotem a kowadłem — odmowa mogłaby prowadzić do wykluczenia z rządowych kontraktów, co z kolei oznacza słabszą pozycję przy kształtowaniu regulacji sektorowych.

Równocześnie Chiny zablokowały przejęcie przez Meta startupu Manus za około 2 mld dolarów, mimo że firma była zarejestrowana w Singapurze. To sygnał, że kraj urodzenia założycieli może być wystarczającym pretekstem do blokowania transakcji — nawet gdy kapitał i pracownicy już formalnie zmienili właściciela. Dla europejskich i polskich firm analizujących akwizycje firm z chińskimi korzeniami to istotne ostrzeżenie regulacyjne.

Szybkie nowości: OpenAI na AWS, Gemini tworzy pliki, ElevenLabs Music

Microsoft i OpenAI przebudowały swoją umowę — zniknęła klauzula uzależniająca warunki współpracy od osiągnięcia AGI, a licencja stała się niewyłączna. Efekt był natychmiastowy: OpenAI błyskawicznie pojawiło się na platformie AWS Amazona. Modele OpenAI będą dostępne coraz szerzej — to dobra wiadomość dla polskich deweloperów, którzy wolą infrastrukturę AWS od Azure.

Google Gemini zyskał możliwość generowania plików bezpośrednio w rozmowie — od PDF i Docx po arkusze Excel i Markdown. XAI opublikował Grok Voice ThinkFast 1.0, model głosowy o bardzo niskich opóźnieniach, który już obsługuje wsparcie telefoniczne Starlink. ElevenLabs uruchomił ElevenLabs Music — platformę do odkrywania, remiksowania i zarabiania na muzyce generowanej przez AI.

FAQ — najczęstsze pytania

Czy DeepSeek V4 można uruchomić lokalnie na domowym komputerze?
Model jest zbyt duży dla typowych konsumenckich kart graficznych. W praktyce korzysta się z niego przez API DeepSeeka lub inne serwisy chmurowe. Firmy z własną infrastrukturą serwerową mogą jednak rozważyć wdrożenie lokalne, co eliminuje koszty API i zwiększa kontrolę nad danymi.

Co oznacza kontrowersja z Anthropic dla polskich użytkowników Claude?
Jeśli korzystasz z Claude Code i w Twoim projekcie pojawiają się odniesienia do frameworków takich jak Hermes lub OpenClaw (np. w nazewnictwie plików, commitach), system może błędnie sklasyfikować Twoje zapytania jako próbę obejścia ograniczeń. Zaleca się regularne sprawdzanie panelu zużycia i kontakt z supportem przy nieoczekiwanych obciążeniach.

Jak różnice cenowe modeli AI przekładają się na realne koszty dla polskiej firmy?
Przy przetwarzaniu 100 mln tokenów miesięcznie różnica między DeepSeek V4 a GPT-5.5 wynosi około 327 USD w samych tokenach wejściowych — a tokeny wyjściowe to dodatkowa kilkukrotność tej kwoty. Przy kursie 4 PLN/USD to setki tysięcy złotych oszczędności rocznie przy dużej skali. Warto jednak uwzględnić koszty integracji, bezpieczeństwa danych i zgodności z RODO przy wyborze dostawcy.

Czy modele open-weight są bezpieczne z perspektywy RODO?
Uruchomienie modelu na własnych serwerach (on-premise lub prywatna chmura) eliminuje ryzyko przesyłania danych osobowych do zewnętrznego dostawcy. To jeden z głównych argumentów za otwartymi modelami w sektorach finansowym, medycznym i prawnym — gdzie wymagania co do lokalizacji danych są szczególnie restrykcyjne.

Źródła