Claude Code – 1 milion tokenów kontekstu i tryb głosowy

Claude 1M Token i voice mode

Claude Code – 1 milion tokenów kontekstu i tryb głosowy

Claude Code właśnie dostał dwie funkcje, na które czekali chyba wszyscy użytkownicy: okno kontekstowe rozszerzone do 1 miliona tokenów oraz natywny voice mode – tryb głosowy, w którym mówisz do terminala zamiast pisać. Brzmi jak rewolucja? Sprawdźmy.

Problem: amnezja w połowie zadania

Jeśli używałeś Claude Code na większym projekcie, znasz ten scenariusz. Ładujesz codebase, odpalasz łańcuch tool calli – czytanie plików, analiza, edycja, testy. Claude radzi sobie świetnie. Aż nagle w terminalu pojawia się komunikat:

Claude is compacting the conversation...

I od tego momentu zaczyna się jazda. Claude „zapomina” decyzje architektoniczne podjęte 20 minut temu. Czyta te same pliki ponownie. Czasami wręcz sprzecza się sam ze sobą – implementacja z kroku 5 nie pasuje do tego, co zrobił w kroku 2, bo krok 2 wyleciał z kontekstu.

To był prawdziwy ból dupy przy dłuższych sesjach. Przy oknie 200K tokenów użyteczna przestrzeń to jakieś 150K po odjęciu bufora na kompakcję. Dla małego projektu – ok. Dla repo z backendem, frontendem i testami? Za mało.

Rozwiązanie: 1M tokenów kontekstu – bez dopłat

13 marca 2026 Anthropic ogłosił, że okno kontekstowe o wielkości 1 miliona tokenów jest teraz ogólnie dostępne dla modeli Opus 4.6 i Sonnet 4.6. Bez beta headerów, bez specjalnych flag, bez dopłat za długi kontekst.

Najważniejsze fakty:

  • Standardowa cena – za 900K tokenów płacisz dokładnie tyle samo za token co za 9K. Opus 4.6: $5/$25 za milion tokenów (input/output). Sonnet 4.6: $3/$15.
  • Pełne rate limity – długie requesty mają taki sam throughput jak krótkie. W becie było inaczej.
  • 600 plików multimedialnych per request – wcześniej limit wynosił 100 obrazów lub stron PDF. Teraz 6x więcej.
  • Bez beta headera – jeśli wcześniej go używałeś, API go po prostu ignoruje. Nie musisz nic zmieniać w kodzie.
  • Dostępne na Claude Platform, Azure Foundry i Google Cloud Vertex AI.
  • Claude Code na planach Max, Team i Enterprise – Opus 4.6 automatycznie dostaje 1M kontekstu. Bez konfiguracji.

Co to oznacza w praktyce?

Przy 200K tokenów użyteczna przestrzeń to ~150K. Przy 1M masz ~830K tokenów na faktyczną pracę. To wystarczy na tysiące plików źródłowych, pełne trace’y tool calli i długie sesje debugowania – bez kompakcji.

Anthropic podaje konkretną liczbę: od wdrożenia 1M kontekstu zanotowano 15% spadek zdarzeń kompakcji wśród użytkowników Claude Code. To nie benchmark – to pomiar z realnego użycia.

Co się zmienia w codziennej pracy:

  • Cały codebase w jednej sesji – nie musisz już wybierać, które pliki załadować. Ładujesz wszystko.
  • Łańcuchy tool calli bez utraty kontekstu – Claude przeszukuje logi, bazy danych, kod źródłowy, proponuje fix – i nie zapomina, co znalazł na początku.
  • Dłuższe sesje bez restartu – wielogodzinne sesje agentowe, które wcześniej wymagały ręcznego /compact, teraz trzymają się kupy.

Ciekawy jest też benchmark. Na teście MRCR v2 (Multi-Round Coreference Resolution) w wariancie 1M tokenów Opus 4.6 osiąga 76%, podczas gdy Sonnet 4.5 – tylko 18,5%. To jakościowa różnica w tym, ile kontekstu model faktycznie potrafi wykorzystać bez „context rot” – degradacji jakości przy dużych ilościach danych.

Context awareness – Claude wie, ile mu zostało

Modele Opus 4.6 i Sonnet 4.6 mają wbudowaną świadomość kontekstu (context awareness). Po każdym tool callu Claude dostaje informację w stylu:

Token usage: 35000/1000000; 965000 remaining

Dzięki temu model sam wie, ile miejsca mu zostało i może planować pracę odpowiednio. Nie zgaduje – wie. To jak zegarek na egzaminie zamiast strzelania, ile czasu minęło.

Jak włączyć 1M w Claude Code?

Jeśli jesteś na planie Max, Team lub Enterprise – nie musisz nic robić. Opus 4.6 automatycznie używa 1M kontekstu.

Sprawdzenie aktualnego modelu:

/model

Jeśli chcesz wymusić 1M na konkretnym modelu (np. przez alias):

opus[1m]
sonnet[1m]

Jeśli z jakiegoś powodu nie chcesz 1M kontekstu:

bash

export CLAUDE_CODE_DISABLE_1M_CONTEXT=1

To usuwa warianty 1M z model pickera.

Voice mode – koduj głosem (ale po angielsku)

3 marca 2026 Anthropic zaczął roll-out natywnego trybu głosowego w Claude Code. Na razie dostępny dla ~5% użytkowników, ale roll-out rozszerza się z każdym tygodniem.

Jak to działa?

/voice

Wpisujesz tę komendę w terminalu. Od teraz:

  1. Przytrzymaj spację – mów
  2. Puść spację – transkrypcja leci do promptu
  3. Claude wykonuje polecenie jak zwykle

Tryb push-to-talk. Proste. Możesz też miksować – napisać pół prompta na klawiaturze, a resztę powiedzieć głosem. Transkrypcja wchodzi w miejsce kursora.

Kiedy to ma sens?

  • Opisywanie bugów – mówienie „sprawdź dlaczego ten API call zwraca 500 w produkcji, podejrzewam że middleware autentykacji łapie wyjątek i zwraca pusty obiekt” jest 3x szybsze niż pisanie tego samego.
  • Sesje refaktoringu – mówisz co chcesz, Claude pisze kod. Dwie z czterech faz pracy (myślenie → wyrażenie intencji → pisanie kodu → review) nie wymagają klawiatury.
  • Przerwy od klawiatury – po 6 godzinach kodowania ręce potrzebują odpoczynku. Głos pozwala kontynuować bez przerwy w pracy.

Ograniczenie: tylko angielski

I tu jest haczyk. Voice mode działa na razie tylko po angielsku. Silnik STT (speech-to-text) domyślnie transkrybuje na angielski. Jeśli mówisz po polsku, transkrypcja albo się sypie, albo produkuje bezsensowny tekst angielski.

Na GitHubie Claude Code jest już otwarty issue (#33170) z prośbą o dodanie konfiguracji języka – ustawienie voiceLanguage w settings.json. Na razie nie istnieje. Społeczność wnioskuje o coś w stylu:

json

{
  "voiceEnabled": true,
  "voiceLanguage": ["en", "pl"]
}

Ale oficjalnie – silnik pod spodem (prawdopodobnie Whisper) wspiera wiele języków. Problem w tym, że Claude Code po prostu nie daje opcji wyboru języka. Na razie jedyne obejście to zewnętrzne narzędzia do dyktowania (Wispr Flow, Superwhisper, AquaVoice), które transkrybują w dowolnym języku i wklejają tekst do terminala.

Protip: Nawet po angielsku – precyzyjne nazwy plików, ścieżki i zmienne lepiej wpisywać ręcznie. Voice sprawdza się świetnie do wyrażania intencji („refactor the auth middleware to use RBAC”), kiepsko do precyzyjnych identyfikatorów.

Dla kogo to jest?

FunkcjaPlanAutomatycznie?
1M kontekst (Claude Code)Max, Team, EnterpriseTak
1M kontekst (API)Tier 4+ lub custom rate limitsTak (GA, bez headera)
Voice modeWszyscy z Claude CodeRoll-out (~5% → 100%)

Podsumowanie

Dwie zmiany, które realnie wpływają na codzienną pracę z Claude Code:

1M tokenów kontekstu – koniec z kompakcją w połowie zadania, koniec z „Claude zapomniał co robiliśmy”. Cały codebase, pełne trace’y, wielogodzinne sesje – w jednym oknie.

Voice mode – szybsze wyrażanie intencji, mniej pisania, ale na razie tylko po angielsku. Jeśli pracujesz w angielskim środowisku – game changer. Jeśli chcesz mówić po polsku – poczekaj lub użyj zewnętrznego narzędzia do dyktowania.

Czy Claude Code przestanie się gubić? Z 5x większym oknem kontekstowym – znacząco rzadziej. Nie jest to gwarancja (context rot istnieje nawet przy 1M tokenów), ale różnica między 200K a 1M jest jak różnica między kartką A4 a flipchartem. Więcej miejsca = mniej zgubionego kontekstu = lepsza praca.

Źródła

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *