
Kan AI användas som rättskälla?
VERKTYG
Av presentationen inför konferensen kunde läsas att offentliggörandet av generativ artificiell intelligens har satt fokus på de alltmer komplexa uppgifter tekniken kan lösa. En tillämpning som fått stor uppmärksamhet är stora språkmodeller, ”Large Language Models” (LLM). Modellerna, till exempel ChatGPT, använder kraftfull hårdvara och dataanalyser för att kunna generera text och besvara frågor.
Med allt större datamängder som analyseras av allt kraftigare självlärande algoritmer, kommer tekniken sannolikt kunna ta över sådant som tidigare uppfattats som människors arbetsdomän.
Språket är en central komponent i juridiskt arbete och en hypotes är att AI/LLM kommer att anpassas till den juridiska domänen, till exempel för att ställa samman dokument, analysera rättsfall, sammanfatta juridiska texter och för att ge juridiska råd. Men hur långt kan utvecklingen gå?
Representanter från olika grupper
Konferensens olika talare från bland andra akademin, myndigheter, företag och advokatbyråer gav sina perspektiv på denna och andra frågor.
Dagens första talare var Johan Fredrikzon, fil. dr i idéhistora vid KTH, som inledde med att per länk från Berkeley, Californien, tala om den historiska hanteringen av data och AI – artificiell intelligens har funnits med sedan 50-talet. Han menade att endast en liten del av juristens arbete innebär att analysera dokument och att det endast är denna lilla del som AI kan ta över. Hans slutsats är att AI inte kan vara varken rättskälla eller jurist, utan att den istället kan förstärka människors intelektuella förmåga.
AI som rättskälla eller jurist?
Peter Wahlgren är professor i rättsinformatik och fortsatte dagen med att fråga sig om man ska se AI som rättskälla eller jurist. På den frågan svarade han att det kanske kan ske på lång sikt, men i dagsläget kan denna inte ses som rättskälla. AI kan visserligen hantera rutinmässiga uppgifter, men den kan inte ersätta alla roller som kräver mänsklig bedömning och erfarenhet och inte heller hantera ansvar, transparens, juridiska principer eller förutsebarhet. Inte heller kan AI vara jurist eftersom dessa språkmodeller inte kan förhandla, fatta beslut och hantera sociala relationer.
Hur AI ser ut ett rikskapitalbolags synvinkel talade Evelina Anttila, VD på Wellstreet och tidigare advokat, om. Hon definierar AI som en mjukvaruteknik som ska lösa problem och efterlikna hjärnor. Bland annat berättade hon att AI-startups ofta är högt värderade i branschen, vilket kan leda till en ohälsosam hype om bolagen sedan visar sig ha ett lägre värde. När hon och hennes kollegor vill investera i dessa startups berättade hon att det även är viktigt att jobba med inkludering och mångfald.
- Det är viktigt att för ett bolag att på lång sikt faktiskt spegla marknaden.
AI minskar behov av biträdande jurister
Vidare under dagen fick vi höra om AI från byråperspektivet genom Elisabet Dalman Lövgren, Head of Knowledge Management and Learning och advokat på Mannheimer Swartling, samt hur AI-arbetet ser ut på Skatteverket, vilket Dan Nordell, AI-strateg, och Tomas Algotsson, IT-utvecklingsansvarig på rättsavdelningen, talade om.
Elisabet Dalman Lövgren berättade att byrån driver ett innovation lab som ska skapa värde för klienter - som en startup i det stora bolaget – för att driva på utvecklingen inom bland annat AI och vara en plattform för samverkan och kunskskapsutbyte.
Hon poängterade att några av utmaningarna med AI är frågan om integritet, advokatsekretess och vem som tar ansvar för de råd som lämnas till klienten och som tagits fram med hjälp av AI. Men hon ser även en risk i att inte göra någonting och låta utvecklingen gå framåt utan att vara delaktig.
- AI är ett verktyg som alla andra och det kan ta tid att implementera nya sådana i arbetssättet. Kärnverksamheten för byrån är legal rådgivning och AI är ett verktyg i detta arbete.
Elisabet Dalman Lövgren avslutade med att säga att byrån i framtiden troligtvis kommer att klara sig med färre nyblivna biträdande jurister eftersom AI tar över och förenklar en del arbetsuppgifter.
Tomas Algotsson och Dan Nordell på Skatteverket uppgav att AI kommer att göra myndigheten – och i förlängningen Sverige – bättre. AI kan, för att nämna några exempel, förbättra vården göra bilar säkrare, bidra till ökad jämlikhet samt ge stöd för mer rättssäkra bedömingar, vilket på sikt leder till sänkta kostnader för skattebetalarna. Men i dagsläget utnyttjas inte generativ AI, såsom ChatGPT, av myndigheten eftersom det inte är tillräckligt säkert.
- Den största risken med AI är att vi inte använder den tillräckligt mycket, sa Dan Nordell.
Enligt föreläsarna vill Skatteverket i förlängningen dela med sig av sin kunskap inom området för att på så sätt hjälpa andra myndigheter att utveckla sitt AI-arbete.
Bortspolad om man sitter still
Sista talare för dagen var Selcuk Ünlü, jurist och Head of Business development på Norstedts Juridik, som fördjupade sig i ”Våra AI-experiment i rättsinformationsbranschen: Resultat, insikter och vägen framåt”.
Han berättade att bolaget tidigare jobbade med externa byråer, men nu valt att istället skaffa ett internt AI-team. Han har under arbetets gång, bara under den senaste tiden, märkt hur snabbt utvecklingen inom detta område sker och därför behövt tänka om och backa bolagets AI-experiment.
Konferensen avslutades med en paneldiskussion med moderator Stanley Greenstein samt Elisabet Dalman Lövgren, Selcuk Ünlü, Tomas Algotsson och Peter Wahlgren.
- Det är människor som måste se till att förändringar sker i sina organisationer. Om det startas nu har vi en enorm förändring om 10 år. Vi är bortspolade om vi sitter still, sa Elisabet Dalman Lövgren avslutningsvis.
