Det amerikanska AI-företaget Anthropic vill anställa en expert på kemiska vapen och sprängämnen för att minska risken att deras AI-system används på farliga sätt, rapporterar BBC. Rollen ska bidra till att utveckla skyddsmekanismer som hindrar AI från att ge instruktioner om hur man tillverkar exempelvis kemiska vapen eller radiologiska så kallade “smutsiga bomber”. Enligt Anthropic har företaget tidigare rekryterat experter inom andra känsliga områden för liknande arbete. Även konkurrenten Open AI söker forskare som ska analysera biologiska och kemiska risker kopplade till AI-modeller, för att förhindra att tekniken utnyttjas för farliga ändamål. I dagsläget saknas internationella regler för hur AI får hantera information om kemiska eller radiologiska vapen.
Anthropic söker expert på kemiska vapen
AI Analys
Nyheten är positiv eftersom den handlar om företag som aktivt arbetar för att minska risken för farliga användningsområden av AI-teknik. Genom att anställa experter på kemiska vapen och sprängämnen visar Anthropic och Open AI ett engagemang för säkerhet och etik inom AI-utvecklingen.
Detaljerad Analys
Ämnen:
teknik
säkerhet
Känsla:
hoppfull
inspirerande
Nyckelord:
AI-säkerhet
expertis
riskminimering
Varför är detta positivt?
- fokus på att utveckla skyddsmekanismer
- förhindra farlig användning av AI
Omfattning:
nationell
Gillade du denna nyhet?