San Francisco är den digitala teknologins mecka. Facebook, Google och Apple har sina huvudkontor i eller runt staden. Den är även först ut att förbjuda industrins kraftigaste vapen: ansiktsigenkänning.

San Franciscos elva mandat starka stadsledning har beslutat att lokala myndigheter inte får använda mjukvara för biometrisk övervakning eller data från sådana system. Teknologin används av många lokala och federala amerikanska polismyndigheter – dock ej i San Francisco – med det officiella syftet att identifiera brottslingar och upprätthålla allmänhetens säkerhet.

Men system som byggs för att fånga alla människors rörelser överallt riktar även kameralinserna mot oskyldiga. Systemen identifierar vad myndigheter kallar för ordningsstörande element och ”misstänkta brottslingar” - vilket låter som den utomjuridiska dystopin Minority Report där myndigheter jagar ”pre-criminals”.

I Kina har teknologin gett landets ledare ett järngrepp om befolkningen. 200 miljoner kameror håller massorna i schack och låter staten ägna sig åt strukturellt förtryck av den muslimska minoriteten uighurer.

Beslutet i San Francisco kommer samtidigt som Facebook och Google tillsammans med en rad länder skrivit under manifestet ”Christchurch Call” för att hålla digitala plattformar fria från extremt innehåll. Initiativet togs av Nya Zeelands premiärminister Jacinda Ardern och Frankrikes president Emmanuel Macron i spåren av terrorattentatet i Christchurch 15 mars, där gärningsmannen via Facebooks livesändningstjänst i realtid kunde sprida massakern globalt.

Allt detta bygger på två saker: artificiell intelligens (AI) och användarens val.

Företagen lovar bot och bättring. Det låter bra. Men för att överblicka, systematisera och radera extremt innehåll använder de sig av AI. Och för att stater och myndigheter ska kunna kartlägga vem ett ansikte tillhör används AI som jämför rörelser, mönster och bilder. Teknologin används i dag i så massiv skala i USA, Kina, Europa och många andra ställen att det inte längre finns vad vi förut betraktat som anonyma offentliga rum.

Luke Stark forskar vid Harvarduniversitetet och Microsoft om transparens, ansvar och etik inom AI-användning. Han har liknat ansiktsigenkänning vid den artificiella intelligensens digitala plutonium, och menar att vi för mänsklighetens hälsa bör reglera och begränsa teknologin kraftigt. Ungefär som vi gjorde med plutonium efter vi såg konsekvenserna i form av massförstörelsevapen.

Vi har rätt att slippa bli sedda, hörda eller avlästa. I dag finns knappt det valet, även om många ger sken av att erbjuda individen hjälp (exempelvis EU genom GDPR-förordningen). Vi måste kräva tjänster där vi får välja om vi vill betala med vår personliga integritet, precis som att vi i dag kan köpa organisk men dyrare frukt. Det kräver regleringar som uppmuntrar mindre skadliga men lite dyrare alternativ än dagens gratistjänster. Digitalt plutonium ska förvaras utom räckvidd för människor.