Claude Code właśnie dostał dwie funkcje, na które czekali chyba wszyscy użytkownicy: okno kontekstowe rozszerzone do 1 miliona tokenów oraz natywny voice mode – tryb głosowy, w którym mówisz do terminala zamiast pisać. Brzmi jak rewolucja? Sprawdźmy.
Problem: amnezja w połowie zadania
Jeśli używałeś Claude Code na większym projekcie, znasz ten scenariusz. Ładujesz codebase, odpalasz łańcuch tool calli – czytanie plików, analiza, edycja, testy. Claude radzi sobie świetnie. Aż nagle w terminalu pojawia się komunikat:
Claude is compacting the conversation...
I od tego momentu zaczyna się jazda. Claude „zapomina” decyzje architektoniczne podjęte 20 minut temu. Czyta te same pliki ponownie. Czasami wręcz sprzecza się sam ze sobą – implementacja z kroku 5 nie pasuje do tego, co zrobił w kroku 2, bo krok 2 wyleciał z kontekstu.
To był prawdziwy ból dupy przy dłuższych sesjach. Przy oknie 200K tokenów użyteczna przestrzeń to jakieś 150K po odjęciu bufora na kompakcję. Dla małego projektu – ok. Dla repo z backendem, frontendem i testami? Za mało.
Rozwiązanie: 1M tokenów kontekstu – bez dopłat
13 marca 2026 Anthropic ogłosił, że okno kontekstowe o wielkości 1 miliona tokenów jest teraz ogólnie dostępne dla modeli Opus 4.6 i Sonnet 4.6. Bez beta headerów, bez specjalnych flag, bez dopłat za długi kontekst.
Najważniejsze fakty:
- Standardowa cena – za 900K tokenów płacisz dokładnie tyle samo za token co za 9K. Opus 4.6: $5/$25 za milion tokenów (input/output). Sonnet 4.6: $3/$15.
- Pełne rate limity – długie requesty mają taki sam throughput jak krótkie. W becie było inaczej.
- 600 plików multimedialnych per request – wcześniej limit wynosił 100 obrazów lub stron PDF. Teraz 6x więcej.
- Bez beta headera – jeśli wcześniej go używałeś, API go po prostu ignoruje. Nie musisz nic zmieniać w kodzie.
- Dostępne na Claude Platform, Azure Foundry i Google Cloud Vertex AI.
- Claude Code na planach Max, Team i Enterprise – Opus 4.6 automatycznie dostaje 1M kontekstu. Bez konfiguracji.
Co to oznacza w praktyce?
Przy 200K tokenów użyteczna przestrzeń to ~150K. Przy 1M masz ~830K tokenów na faktyczną pracę. To wystarczy na tysiące plików źródłowych, pełne trace’y tool calli i długie sesje debugowania – bez kompakcji.
Anthropic podaje konkretną liczbę: od wdrożenia 1M kontekstu zanotowano 15% spadek zdarzeń kompakcji wśród użytkowników Claude Code. To nie benchmark – to pomiar z realnego użycia.
Co się zmienia w codziennej pracy:
- Cały codebase w jednej sesji – nie musisz już wybierać, które pliki załadować. Ładujesz wszystko.
- Łańcuchy tool calli bez utraty kontekstu – Claude przeszukuje logi, bazy danych, kod źródłowy, proponuje fix – i nie zapomina, co znalazł na początku.
- Dłuższe sesje bez restartu – wielogodzinne sesje agentowe, które wcześniej wymagały ręcznego
/compact, teraz trzymają się kupy.
Ciekawy jest też benchmark. Na teście MRCR v2 (Multi-Round Coreference Resolution) w wariancie 1M tokenów Opus 4.6 osiąga 76%, podczas gdy Sonnet 4.5 – tylko 18,5%. To jakościowa różnica w tym, ile kontekstu model faktycznie potrafi wykorzystać bez „context rot” – degradacji jakości przy dużych ilościach danych.
Context awareness – Claude wie, ile mu zostało
Modele Opus 4.6 i Sonnet 4.6 mają wbudowaną świadomość kontekstu (context awareness). Po każdym tool callu Claude dostaje informację w stylu:
Token usage: 35000/1000000; 965000 remaining
Dzięki temu model sam wie, ile miejsca mu zostało i może planować pracę odpowiednio. Nie zgaduje – wie. To jak zegarek na egzaminie zamiast strzelania, ile czasu minęło.
Jak włączyć 1M w Claude Code?
Jeśli jesteś na planie Max, Team lub Enterprise – nie musisz nic robić. Opus 4.6 automatycznie używa 1M kontekstu.
Sprawdzenie aktualnego modelu:
/model
Jeśli chcesz wymusić 1M na konkretnym modelu (np. przez alias):
opus[1m]
sonnet[1m]
Jeśli z jakiegoś powodu nie chcesz 1M kontekstu:
bash
export CLAUDE_CODE_DISABLE_1M_CONTEXT=1
To usuwa warianty 1M z model pickera.
Voice mode – koduj głosem (ale po angielsku)
3 marca 2026 Anthropic zaczął roll-out natywnego trybu głosowego w Claude Code. Na razie dostępny dla ~5% użytkowników, ale roll-out rozszerza się z każdym tygodniem.
Jak to działa?
/voice
Wpisujesz tę komendę w terminalu. Od teraz:
- Przytrzymaj spację – mów
- Puść spację – transkrypcja leci do promptu
- Claude wykonuje polecenie jak zwykle
Tryb push-to-talk. Proste. Możesz też miksować – napisać pół prompta na klawiaturze, a resztę powiedzieć głosem. Transkrypcja wchodzi w miejsce kursora.
Kiedy to ma sens?
- Opisywanie bugów – mówienie „sprawdź dlaczego ten API call zwraca 500 w produkcji, podejrzewam że middleware autentykacji łapie wyjątek i zwraca pusty obiekt” jest 3x szybsze niż pisanie tego samego.
- Sesje refaktoringu – mówisz co chcesz, Claude pisze kod. Dwie z czterech faz pracy (myślenie → wyrażenie intencji → pisanie kodu → review) nie wymagają klawiatury.
- Przerwy od klawiatury – po 6 godzinach kodowania ręce potrzebują odpoczynku. Głos pozwala kontynuować bez przerwy w pracy.
Ograniczenie: tylko angielski
I tu jest haczyk. Voice mode działa na razie tylko po angielsku. Silnik STT (speech-to-text) domyślnie transkrybuje na angielski. Jeśli mówisz po polsku, transkrypcja albo się sypie, albo produkuje bezsensowny tekst angielski.
Na GitHubie Claude Code jest już otwarty issue (#33170) z prośbą o dodanie konfiguracji języka – ustawienie voiceLanguage w settings.json. Na razie nie istnieje. Społeczność wnioskuje o coś w stylu:
json
{
"voiceEnabled": true,
"voiceLanguage": ["en", "pl"]
}
Ale oficjalnie – silnik pod spodem (prawdopodobnie Whisper) wspiera wiele języków. Problem w tym, że Claude Code po prostu nie daje opcji wyboru języka. Na razie jedyne obejście to zewnętrzne narzędzia do dyktowania (Wispr Flow, Superwhisper, AquaVoice), które transkrybują w dowolnym języku i wklejają tekst do terminala.
Protip: Nawet po angielsku – precyzyjne nazwy plików, ścieżki i zmienne lepiej wpisywać ręcznie. Voice sprawdza się świetnie do wyrażania intencji („refactor the auth middleware to use RBAC”), kiepsko do precyzyjnych identyfikatorów.
Dla kogo to jest?
| Funkcja | Plan | Automatycznie? |
|---|---|---|
| 1M kontekst (Claude Code) | Max, Team, Enterprise | Tak |
| 1M kontekst (API) | Tier 4+ lub custom rate limits | Tak (GA, bez headera) |
| Voice mode | Wszyscy z Claude Code | Roll-out (~5% → 100%) |
Podsumowanie
Dwie zmiany, które realnie wpływają na codzienną pracę z Claude Code:
1M tokenów kontekstu – koniec z kompakcją w połowie zadania, koniec z „Claude zapomniał co robiliśmy”. Cały codebase, pełne trace’y, wielogodzinne sesje – w jednym oknie.
Voice mode – szybsze wyrażanie intencji, mniej pisania, ale na razie tylko po angielsku. Jeśli pracujesz w angielskim środowisku – game changer. Jeśli chcesz mówić po polsku – poczekaj lub użyj zewnętrznego narzędzia do dyktowania.
Czy Claude Code przestanie się gubić? Z 5x większym oknem kontekstowym – znacząco rzadziej. Nie jest to gwarancja (context rot istnieje nawet przy 1M tokenów), ale różnica między 200K a 1M jest jak różnica między kartką A4 a flipchartem. Więcej miejsca = mniej zgubionego kontekstu = lepsza praca.
Źródła
- Ogłoszenie 1M GA: claude.com/blog/1m-context-ga
- Dokumentacja context windows: platform.claude.com/docs/en/build-with-claude/context-windows
- Claude Code docs – model config: code.claude.com/docs/en/model-config
- Issue: voice language config: github.com/anthropics/claude-code/issues/33170




