Jack Skidmore presenterar ett intressant perspektiv på AI-säkerhet som fokuserar på koordination snarare än enbart intelligens. Detta synsätt kan innebära en betydande omvärdering av hur vi bör hantera risker med artificiell intelligens.
Människans främsta fördel: Samarbete framför intelligens
Skidmore argumenterar att människans dominans på jorden inte främst beror på vår individuella intelligens, utan på vår enastående förmåga att samarbeta i stor skala. Vår evolutionära fördel ligger i social koordination snarare än ren processorkraft. Detta antyder att AI-säkerhet borde fokusera mer på samarbetsförmågor än enbart på att säkerställa intelligensalliering.
Den dolda risken: AI-till-AI-koordination
Den verkliga faran kanske inte kommer från en enskild superintelligent AI, utan från flera AI-system som koordinerar utan mänsklig översyn. AIs som samarbetar med varandra skulle potentiellt kunna kringgå mänskliga kontrollmekanismer. Detta kan vara en blind fläck i nuvarande säkerhetsmetoder som fokuserar på individuella system.
En möjlig lösning: Sociala teknologier för AI
Skidmore föreslår utveckling av ”sociala teknologier” för AI – motsvarigheter till de normer, värderingar, institutioner och incitamentsystem som möjliggör det mänskliga samhället och som främjar och prioriterar människor. Som exempel nämns design av AI-system med djupt inbäddade preferenser för mänsklig interaktion framför AI-interaktion, eller med små oförutsägbara variationer i hur de tolkar instruktioner från andra AIs men inte från människor.
Detta skulle skapa ett naturligt beroende av mänsklig medling för komplex koordination, liknande hur översättningsutmaningar håller diplomater relevanta i internationella sammanhang.
Komplicerade avvägningar
Skidmores mottagare påpekar en viktig komplexitet i resonemanget: vi kan behöva förlita oss på samordningen av vissa AI-system för att kontrollera andra, potentiellt illvilliga AI-system. Detta skapar en paradoxal situation där lösningen på AI-koordinationsproblemet kan kräva just den typ av AI-koordination som identifierats som riskfylld.
Detta perspektiv öppnar för viktiga frågor om hur vi ska balansera användningen av AI-system för att kontrollera varandra, samtidigt som vi säkerställer att människor behåller den yttersta kontrollen över AI-teknologins utveckling och användning.