Americká společnost Anthropic podala žalobu na vládu Spojených států poté, co Pentagon označil její technologii za bezpečnostní riziko. Spor vznikl kvůli pravidlům pro využití umělé inteligence v armádě. Výsledek může výrazně ovlivnit vztahy mezi technologickými firmami a státem.
Americká firma Anthropic se obrátila na soud kvůli rozhodnutí Pentagonu omezit používání její technologie. Společnost tvrdí, že označení za bezpečnostní riziko je nezákonné a porušuje její ústavní práva. Požaduje proto, aby soud rozhodnutí vlády zrušil a zabránil jeho prosazování.
Ministerstvo obrany firmu označilo za riziko pro dodavatelský řetězec. Tento krok prakticky znemožnil využívání nástroje Claude v některých vládních projektech. Podle Anthropic k tomu došlo poté, co odmítla odstranit omezení týkající se vojenského využití umělé inteligence.
JUST IN: 🇺🇸 Anthropic sues US government after being labeled a national security risk. pic.twitter.com/ZLg5NSkbyZ
— Watcher.Guru (@WatcherGuru) March 9, 2026
Spor o limity umělé inteligence
Anthropic dlouhodobě prosazuje pravidla, která mají bránit využití AI pro autonomní zbraně nebo masové sledování obyvatel. Pentagon ale požadoval plnou flexibilitu při používání technologie v armádních projektech. Firma tvrdí, že právě tento spor vedl k jejímu zařazení mezi rizikové dodavatele.
V žalobě společnost uvedla: „Tyto kroky jsou bezprecedentní a nezákonné. Ústava nedovoluje vládě využít svou moc k potrestání firmy za její chráněný projev.“ Podle Anthropic také žádný federální zákon takový postup neumožňuje.
Napětí mezi firmou a vládou trvá už několik měsíců. Jednání se postupně vyostřovala kvůli otázce, zda mají armádní projekty respektovat omezení nastavená vývojáři AI. Technologie Anthropic přitom už dříve využívaly některé vládní instituce.
Dopady na technologický sektor
Do sporu zasáhl také prezident Donald Trump. Na sociální síti vyzval federální úřady, aby přestaly používat nástroj Claude. Krátce poté ministerstvo obrany firmu oficiálně označilo za riziko pro dodavatelský řetězec.
Podle vedení společnosti může rozhodnutí vlády výrazně zasáhnout její byznys. Firma uvedla, že by mohla přijít o stovky milionů až miliardy dolarů příjmů. Nejistota kolem vládních kontraktů navíc může ovlivnit i komerční zákazníky.
Do případu se zapojila také skupina výzkumníků z firem Google a OpenAI. Ve svém podání soudu varovali, že podobné kroky vlády mohou odradit odborníky od otevřené debaty o rizicích umělé inteligence.
Anthropic zároveň zdůrazňuje, že spolupráci s vládou neodmítá. Firma pouze tvrdí, že současné systémy AI zatím nejsou dostatečně spolehlivé pro plně autonomní zbraně a neměly by sloužit k plošnému sledování obyvatel. Výsledek sporu tak může rozhodnout o tom, kdo bude mít v budoucnu větší vliv na pravidla využívání umělé inteligence.

