Pentagon stawia na ostrzu noża Anthropic: Nowe wyzwania dla amerykańskiej firmy AI
Pentagon oficjalnie uznał firmę Anthropic za ryzyko dla łańcucha dostaw, co jest precedensem wśród firm amerykańskich. Decyzja wydaje się być eskalacją konfliktu między Anthropic a amerykańskim Departamentem Obrony po nieudanych negocjacjach dotyczących wykorzystania AI dla celów wojskowych. To posunięcie może mieć szerokie reperkusje dla przyszłości AI w sektorze obronnym.

Tło konfliktu
Pentagon po raz pierwszy w historii uznał amerykańską firmę AI, Anthropic, za ryzyko dla łańcucha dostaw. Decyzja ta pojawiła się po tygodniach napiętych negocjacji między firmą a Departamentem Obrony USA. Głównymi punktami spornymi były autonomiczne broń i masowa inwigilacja, których zastosowanie przez Pentagon nie zostało zaakceptowane przez Anthropic. Firma twierdziła, że takie użycie jej technologii godzi w jej zasady etyczne.
Eskalacja działań rządu
Pod przewodnictwem Defense Secretary Pete'a Hegsetha oraz prezydenta Donalda Trumpa, Departament Obrony wydał stanowcze komunikaty, grożąc anulowaniem kontraktów z każdą firmą, która współpracuje z Anthropic. Choć Pentagon nie przedstawił oficjalnych komentatoriów, stanowisko to stanowi ostrzeżenie dla firm zależnych od technologii AI.
Odpowiedź Anthropic
Według źródeł bliskich Anthropic, firma początkowo wierzyła w możliwość porozumienia z Departamentem Obrony. Jednak publiczne oświadczenia Trumpa na platformie Truth Social oraz komentarze Hegsetha zmieniły tonienie. Trump napisał, że instytucje federalne muszą natychmiast przerwać korzystanie z narzędzi sviluppowanych przez Anthropic.
Szersze konsekwencje
Decyzja o uznaniu Anthropic za ryzyko dla łańcucha dostaw oznacza szybkie zakończenie wszelkiej współpracy tej firmy z rządem i wojskiem. Takie działanie niesie ryzyko konsekwencji zarówno dla samego Anthropic, jak i dla amerykańskiej pozycji w wyścigu technologicznym. Rywalizująca firma OpenAI, jak wskazano w artykułach, szybko uzupełnia lukę, nawiązując nowe umowy z Departamentem Obrony.
Reakcje polityczne
Senator Kirsten Gillibrand potępiła decyzję rządu, określając ją jako „krótkowzroczną i autodestrukcyjną”. Zwróciła uwagę, że takie działanie bardziej przypomina politykę Chin niż USA. Podobne stanowisko przyjęli przedstawiciele branży technologicznej, obawiający się precedensu, jaki stworzono.
Przyszłość AI w obronności
Cały spór stał się symbolem szerszych debat na temat przyszłości AI w sektorze obronnym i etycznych ograniczeń w jej zastosowaniu. Zastosowanie takich technologii w działaniach militarnych stale budzi kontrowersje, zwłaszcza dotyczące autonomii maszyn w podejmowaniu decyzji dotyczących życia ludzkiego.
Perspektywy rozwoju Anthropic
Pomimo kłopotów z rządem, aplikacja AI o nazwie Claude, rozwijana przez Anthropic, cieszy się dużą popularnością na całym świecie. Z danych firmy wynika, że codziennie rejestruje się do niej ponad milion nowych użytkowników. Anthropic może nadal kontynuować swoją działalność komercyjną, koncentrując się na innych rynkach.