Poslechnout článek
0:00

Anthropic vs. Pentagon: Trump zakázal Claude vládě USA

Sdílet:

Spor, který začal zákulisním vyjednáváním, se 27. února 2026 proměnil v otevřený střet. Anthropic – americká společnost stojící za jazykovým modelem Claude – odmítla ultimátum amerického ministerstva obrany a prezident Donald Trump na to reagoval bezprecedentním krokem: nařídil všem federálním agenturám Spojených států přestat Anthropic produkty používat.

Co Pentagon požadoval a proč to Anthropic odmítlo

Anthropic patřilo mezi přední partnery Pentagonu v oblasti umělé inteligence. Spolu s Googlem, xAI a OpenAI uzavřela společnost s ministerstvem obrany smlouvy v hodnotě až 200 milionů dolarů na přizpůsobení svých modelů vojenským potřebám. Claude byl dokonce prvním komerčním AI modelem, který získal povolení k nasazení v utajovaných sítích Pentagonu.

Vztah se zkomplikoval v lednu 2026, kdy byl Claude údajně využit při americké vojenské operaci zaměřené na bývalého venezuelského prezidenta Nicoláse Madura. Tato epizoda zřejmě posílila chuť Pentagonu usilovat o ještě větší volnost při použití systému.

Napětí vygradovalo, když Pentagon požadoval, aby mohl Claude využívat „pro všechny zákonné účely" bez jakýchkoli omezení ze strany výrobce. Ministr obrany Pete Hegseth si 24. února předvolal generálního ředitele Anthropic Daria Amodeiho přímo na ministerstvo. O den později společnost obdržela takzvanou „finální nabídku" – smluvní text, který podle Anthropic nepřinesl „téměř žádný pokrok" v klíčových sporných bodech. Anthropic nabídku 26. února odmítlo.

Dvě červené linie: autonomní zbraně a masové sledování

Anthropic se nebránilo spolupráci s armádou jako takové. Odmítlo pouze dvě konkrétní kategorie využití: autonomní smrtící zbraňové systémy a masové sledování amerických občanů. Jak uvedla společnost ve svém prohlášení: „Jde o využití, která jsou mimo hranice toho, co dnešní technologie dokáže bezpečně a spolehlivě zajistit."

Dario Amodei byl přímočarý: „Hrozby naši pozici nezmění. Nemůžeme se v dobrém svědomí podřídit jejich požadavku." Připomněl také, že obě odmítnuté kategorie dosud žádnou skutečnou armádní misi neovlivnily – Pentagon tedy vznáší principiální požadavek, nikoli praktickou potřebu.

Pentagon toto zdůvodnění odmítl. Technologický ředitel ministerstva prohlásil, že je „nedemokratické", aby soukromá firma omezovala vojenské využití AI. Ministr Hegseth označil odmítnutí Anthropic za ohrožení národní bezpečnosti.

Trumpova reakce: zákaz a označení za bezpečnostní riziko

Po uplynutí ultimáta v pátek 27. února Trump zveřejnil na platformě Truth Social post, v němž nařídil „každé federální agentuře v USA okamžitě přestat používat technologie Anthropic". Přidal také varování: „Anthropic by si mělo dát věci do pořádku, nebo použiji veškerou moc prezidenta, aby ho přiměl ke splnění – s vážnými civilními i trestními důsledky."

Ministr Hegseth pak Anthropic označil za „riziko pro zásobovací řetězec národní bezpečnosti" – titul, který byl dosud vyhrazen pro společnosti z nepřátelských zemí, jako jsou čínský Huawei nebo ruský Kaspersky. Federálním agenturám byla poskytnuta šestiměsíční lhůta na přechod. Zároveň bylo zakázáno i vojenským dodavatelům, subdodavatelům a partnerům Pentagonu s Anthropic komerčně obchodovat – zásah daleko přesahující běžné neprodloužení vládní smlouvy.

Solidarita ze Silicon Valley

Případ vyvolal výraznou odezvu v technologickém odvětví. Generální ředitel OpenAI Sam Altman napsal, že jeho společnost sdílí postoj Anthropic: AI by neměla být využívána pro autonomní smrtící zbraně ani masové sledování a člověk musí zůstat v rozhodovací smyčce u věcí s vysokými následky. Stovky zaměstnanců Googlu a OpenAI podepsaly petici, v níž vyzývají svá vedení k solidaritě.

Politická reakce nepřišla jen ze Silicon Valley. Senátor Mark Warner, místopředseda Výboru pro zpravodajské služby Senátu, varoval, že Trumpovo nařízení „vyvolává vážné obavy, zda jsou rozhodnutí o národní bezpečnosti motivována pečlivou analýzou, nebo politickými úvahami".

Co bude dál: soudní bitva

Anthropic oznámilo záměr označení za bezpečnostní riziko napadnout u soudu. Podle dostupných informací z 28. února 2026 společnost formálně oznámila záměr toto označení soudně napadnout. Právní spor bude klíčovým testem: může vláda USA donutit soukromou AI firmu vzdát se svých bezpečnostních zásad jako podmínky spolupráce?

Případ přesahuje rámec jedné firmy. Ve hře je zásadní otázka: kdo v demokratické společnosti určuje etické hranice umělé inteligence v armádě – volená vláda, nebo soukromí vývojáři? Odpověď soudu může zásadně ovlivnit vztah mezi americkým vojensko-průmyslovým komplexem a technologickým sektorem. A její dosah sahá daleko za hranice Spojených států.

Související články

Zdroje

Při přípravě tohoto článku byly využity nástroje umělé inteligence. Obsah prošel redakční kontrolou a ověřením faktů.

Sdílet:

Komentáře

Sdílejte svůj pohled na toto téma.

Napište komentář

0 / 1000