Techwerkers roepen Amerikaanse overheid op om Anthropic als risico in de toeleveringsketen te heroverwegen
Bron: TechCrunch AI
Honderden techwerkers hebben een open brief ondertekend waarin ze het Amerikaanse Ministerie van Defensie (DOD) oproepen om de aanduiding van Anthropic als een "risico in de toeleveringsketen" te herroepen. De brief vraagt ook aan het Congres om in te grijpen en te onderzoeken of het gebruik van deze uitzonderlijke bevoegdheden tegen een Amerikaans technologiebedrijf wel gepast is.
Onder de ondertekenaars bevinden zich vertegenwoordigers van grote technologie- en durfkapitaalbedrijven zoals OpenAI, Slack, IBM, Cursor en Salesforce Ventures. Deze ontwikkeling volgde op een conflict tussen het DOD en Anthropic, nadat het AI-lab vorige week weigerde om het leger onbeperkte toegang tot zijn AI-systemen te geven.
Anthropic stelde twee belangrijke voorwaarden tijdens de onderhandelingen met het Pentagon: het wilde niet dat haar technologie werd gebruikt voor massatoezicht op Amerikanen of voor de werking van autonome wapens die zonder menselijke tussenkomst beslissingen over doelen en schoten nemen. Het DOD beweerde dat het geen plannen had om dit te doen, maar vond ook dat het niet beperkt moest worden door de regels van een leverancier.
De gevolgen van de weigering van Anthropic
Nadat Dario Amodei, de CEO van Anthropic, weigerde een overeenkomst te sluiten met minister van Defensie Pete Hegseth, gaf President Donald Trump op vrijdag opdracht aan federale agentschappen om de technologie van Anthropic niet meer te gebruiken, met een overgangsperiode van zes maanden. Hegseth besloot vervolgens om Anthropic als een risico in de toeleveringsketen te bestempelen—een aanduiding die normaal gesproken voor buitenlandse tegenstanders is gereserveerd en die de AI-firma zou uitsluiten van samenwerking met enige instantie of bedrijf dat zaken doet met het Pentagon.
De gevolgen van de aanduiding als risico
In een bericht op vrijdag schreef Hegseth: "Met onmiddellijke ingang mag geen enkele aannemer, leverancier of partner die zaken doet met het Amerikaanse leger enige commerciële activiteiten met Anthropic uitvoeren." Echter, een bericht op sociale media maakt Anthropic niet automatisch tot een risico in de toeleveringsketen. De overheid moet eerst een risicobeoordeling uitvoeren en het Congres op de hoogte stellen voordat militaire partners gedwongen worden om de banden met Anthropic of zijn producten te verbreken.
Reactie van Anthropic
Anthropic heeft in een blogpost aangegeven dat de aanduiding zowel "juridisch onhoudbaar" is als dat het van plan is om elke aanduiding als risico in de toeleveringsketen aan te vechten in de rechtbank. Veel mensen in de industrie beschouwen de behandeling van Anthropic door de regering als hard en een duidelijke vergelding.
De bredere implicaties voor de technologie-industrie
De open brief stelt: "Wanneer twee partijen het niet eens kunnen worden over voorwaarden, is de gebruikelijke weg om uit elkaar te gaan en met een concurrent te werken. Deze situatie zet een gevaarlijk precedent. Het straffen van een Amerikaans bedrijf voor het weigeren om in te stemmen met wijzigingen in een contract geeft een duidelijk signaal aan elk technologiebedrijf in Amerika: accepteer de voorwaarden die de overheid stelt, of ondervind vergelding."
Bezorgdheid over overheidsoverheid
Naast de bezorgdheid over de harde behandeling van Anthropic, zijn veel mensen in de industrie nog steeds bezorgd over mogelijke overheidsoverreach en het gebruik van AI voor kwade doeleinden. Dit debat over de rol van de overheid in de technologie-industrie kan verstrekkende gevolgen hebben voor de manier waarop bedrijven hun producten en diensten ontwikkelen en aanbieden, vooral in een tijd waarin AI steeds belangrijker wordt.
De situatie rondom Anthropic is exemplarisch voor de complexe relatie tussen technologiebedrijven en de overheid in de Verenigde Staten. Terwijl bedrijven zoals Anthropic zich inzetten voor ethische AI-toepassingen, staat de overheid voor de uitdaging om veiligheidsbelangen en innovatie in evenwicht te brengen.
Vertaald met ChatGPT gpt-4o-mini