Artificiell intelligens, så kallad AI, har varit årets kanske hetaste trend. Utvecklingen har gått i rekordfart, vilket har lett till stor ovisshet och rädsla.
Det går inte längre att hålla räkningen på antalet artiklar med varningar om risker med AI. Senast i november fick Open AI:s vd Sam Altman sparken efter att ha blivit anklagad för att öppna för en uppdatering som skulle vara ett hot mot mänskligheten.
Det är svårt att greppa vad det betyder att något utgör ett hot mot mänskligheten, men frågan om AI:s utveckling är här för att stanna. Frågan är hur liberala aktörer ska förhålla sig till utvecklingen?
Som liberalt sinnad finns det en ryggmärgsreflex mot reglering på forskning och nytänkande. Det gäller bland annat de två liberala partierna i Sverige, Centerpartiet och Liberalerna. Ur ett liberalt perspektiv skulle därför ett förbud mot forskning på AI göra så att utvecklingen begränsas. Information och utveckling är som princip inte farligt.
Men vilka risker finns egentligen med AI? Vad kan göras för att minimera dessa? I ett upprop med tusentals undertecknare i branschen varnas det för att utvecklingen har gått alltför snabbt där vi riskerar att förlora kontrollen över vår civilisation.
Kritikerna har även lyft informationens korrekthet och transparens som problem med AI. Just nu pågår förhandling om reglering av AI på EU-nivå för att minska riskerna, men det verkar som att regleringen snubblar på målsnöret.
Frankrike, Tyskland och Italien har ställt sig kritiska till att förslaget reglerar själva tekniken, särskilt så kallad generativ AI, som kan skapa material i olika medium istället för att reglera hur tekniken används. Länderna menar att det är användningen av tekniken och inte tekniken i sig som innebär risker. Det kan ses som ett förhållandevis liberalt förhållningssätt till AI-reglering.
Även om tyskarna, fransmännen och italienarna är något naiva när de föreslår att företag som utvecklar generativ AI ska vara självreglerande så är de något på spåren. AI kommer fortsätta att utvecklas och det finns många områden där den skulle vara till hjälp, till exempel i medicinsk forskning.
Men riskerna det innebär för individen och samhället ligger i hur tekniken används. AI kan användas för att förleda, efterforska och samla information om individer. Funktioner som ansiktsigenkänning i realtid är till exempel något där användningen av tekniken kan begränsas, men tekniken i sig kan vara användbar inom andra områden.
Sanningen kanske är den att vi inte vet hur AI kommer att påverka oss. Experterna talar inte med en enda röst och det finns de som menar att AI inte är så farligt.
I alla tider har teknisk utveckling mötts med skepticism och alarmism. Kanske är fallet så även här. Med det sagt så finns det skäl att använda en försiktighetsprincip framåt. AI har fler användningsområden som kan skada individer och samhällen, vilket så klart bör förhindras. Men det ska inte innebära att politiken tar sig mandat att kontrollera forskningen.