Anthropic söker expert på kemiska vapen

AI Analys
Nyheten är positiv eftersom den handlar om företag som aktivt arbetar för att minska risken för farliga användningsområden av AI-teknik. Genom att anställa experter på kemiska vapen och sprängämnen visar Anthropic och Open AI ett engagemang för säkerhet och etik inom AI-utvecklingen.

Detaljerad Analys

Ämnen:
teknik säkerhet
Känsla:
hoppfull inspirerande
Nyckelord:
AI-säkerhet expertis riskminimering
Varför är detta positivt?
  • fokus på att utveckla skyddsmekanismer
  • förhindra farlig användning av AI
Omfattning: nationell

Det amerikanska AI-företaget Anthropic vill anställa en expert på kemiska vapen och sprängämnen för att minska risken att deras AI-system används på farliga sätt, rapporterar BBC. Rollen ska bidra till att utveckla skyddsmekanismer som hindrar AI från att ge instruktioner om hur man tillverkar exempelvis kemiska vapen eller radiologiska så kallade “smutsiga bomber”. Enligt Anthropic har företaget tidigare rekryterat experter inom andra känsliga områden för liknande arbete. Även konkurrenten Open AI söker forskare som ska analysera biologiska och kemiska risker kopplade till AI-modeller, för att förhindra att tekniken utnyttjas för farliga ändamål. I dagsläget saknas internationella regler för hur AI får hantera information om kemiska eller radiologiska vapen.

Läs hela artikeln hos Computer Sweden

Gillade du denna nyhet?

0