Pentagon klassar Anthropic som leverantörsrisk efter AI-konflikt
USA:s försvarsdepartement Pentagon har klassat AI-bolaget Anthropic som en risk i leverantörskedjan efter en konflikt om hur bolagets AI-modeller får användas. Det rapporterar flera medier.
ANNONS
Beslutet innebär att leverantörer till Pentagon måste intyga att de inte använder Anthropics modeller, Claude, i sitt arbete för departementet.
Enligt uppgifter ville Anthropic ha garantier för att tekniken inte används i helt autonoma vapen eller för omfattande inhemsk övervakning, medan försvarsdepartementet krävde fri tillgång till tekniken för alla lagliga användningsområden.
“Militären kommer inte att tillåta att en leverantör infogar sig i befälsordningen genom att begränsa den lagliga användningen av en kritisk kapacitet och utsätta våra soldater för fara”, sade en källa till CNBC.
Anthropic ska ha formellt informerats om klassificeringen under torsdagen enligt Wall Street Journals uppgifter, och bolagets vd Dario Amodei har i ett blogginlägg sagt att man tänker utmana detta eftersom man anser att åtgärden inte är “juridiskt hållbar”.