Del 2 – hvordan kan det brukes?
Vi har i en rekke blogger i 2022 belyst tingenes tilstand på AI-fronten. Det har skjedd mye innen kunstig intelligens det siste året og i forrige blogg, som er del 1 til denne bloggen, beskrev vi hva generativ kunstig intelligens er, hvilke modeller og økosystemer som finnes, og hva som trengs for å gjøre modellene gode nok for kommersielt bruk.
I denne bloggen fokuseres det på bruksområder, gevinstrealisering, risiko, interaksjon, GPT-4 og hva Microsoft har gjort med teknologien. Samt de juridiske fallgruvene du må hensynta.
Bruksområde for ChatGPT og GPT-modeller generelt
Det er helt sikkert at vi ila. et par år kommer til å se selskaper som tilbyr produkter der OpenAI sin GPT-modell, eller konkurrerende GPT-modeller, er inkludert innenfor de fleste bransjer. Disse tilbudene vil være bransje- og funksjonsspesifikke. Både pga. utfordringene nevnt ovenfor, samt tiden/ressursene det tar å trene opp modellen til å gi et tilfredsstillende resultat.
For de som tør så kan dagens ChatGPT, integrert i søkemotoren Bing, allerede tas i bruk ifm. den nyeste oppdateringen av Windows 11 (ver. KB5022913). Den AI-styrte Bing chat-funksjonen er da lagt til oppgavelinjen i Windows. Søk på oppgavelinjen vil også trigge søkeresultater i Edge. For de som ikke vil bli overvåkt av en AI så skal Microsoft angivelig ha lagt til muligheten for å gå tilbake til forrige generasjon av søkefeltet.
For de som bruker andre nettlesere og mobile apper så finnes det en artikkel i Geek Culture som forklarer hvordan dere får integrert ChatGPT med det dere ønsker.
I forrige blogg nevnte vi NORA konferansen. Her var et av brukseksemplene utvikling av en barne-avatar. For bruk i opplæring for personell som skal ha emosjonelt krevende samtaler med barn. Use-caset er unikt, men viser hvordan man kan kombinere ulike teknologier for å komme frem til en realistisk avatar som de fleste nok kan finne andre bruksområder for.
For IT er det en rekke åpenbare gevinster å hente ut av GPT-teknologien:
- Automasjon i kundebehandlingen (helpdesk funksjonen) ligger øverst på listen. Her blir det viktig å vite hvem de 20% av kundene som generer 80% av butikken er. For så å få de på «ikke» listen til chat-boten slik at en menneskelig kundebehandler ivaretar disse. Og heller bruke ChatGPT som et internt oppslagsverk, mens roboten håndterer de andre henvendelsene.
- Automasjon i bestillingsprosesser (via service management verktøyet) ligger nesten like høyt. Så lenge man har trent modellen godt nok og bygger inn domenespesifikke kontroller. For en IT-tjeneste er dette relativt enkelt pga. at man som oftest har et sett med avtaler i bunn som begrenser hva som kan bestilles og fra hvem.
- Generering av kunnskapsbase for organisasjonen ligger også høyt på listen. Forutsatt at virksomheten faktisk er dokumentert (les arkitektur, produktdokumentasjon, prosessdokumentasjon, brukerdokumentasjon, m.m.).
- Gitt at kunnskapen i organisasjonen først er dokumentert kan ChatGPT brukes ifm. opplæring av ansatte. Noe som treffer godt på bunnlinjen både ift. økt effektivitet i jobben, men også gjennom kostnadsbesparelser vis a vis menneskeledet opplæring.
- På lik linje med opplæring ligger forhåndsutfylling av standardiserte skjema, maler, avtaler, m.m. En virksomhet må naturligvis evne å gi ChatGPT tilgang til de relevante dataene. Der kommer vi raskt inn på både compliance/personvern utfordringer og utfordringer med bedriftshemmeligheter – hva skjer med de data vi laster opp til OpenAI?
- Muligens vil den største verdien for IT kunne være evnen som ChatGPT gir IT til å komme tettere på forretningen. Teknologien vil kunne gi store gevinster på mange forretningsområder, ikke minst å forbedre internkommunikasjonen på tvers av forretningsområdene og mot kunder. Men på det stadiet teknologien befinner seg i nå vil bedriftens medarbeidere trenge IT-kyndig veiledning for å unngå alle fallgruvene.
Risikohåndtering i en verden med ChatGPT
IT må forstå hvordan ChatGPT (og lignende verktøy) i seg selv kan utgjøre sikkerhets- og compliance risiko for organisasjonen.
Helt åpenbart vil kriminelle utnytte teknologien for å forbedre og gjennomføre phishing-angrep, men hvor lagres dataene som sendes til modellen? Hvem har tilgang til disse dataene? Hva sier lisensbestemmelsene til OpenAI om opphavsrett til resultatene som ChatGPT produserer?
Hvor mye kommer det faktisk til å koste organisasjonen å bruke verktøyet (glem gratisversjonen – den er bare brukbar til lek og lær)? Selv om OpenAI 1. mars lanserte GPT-3.5-Turbo API-et med en veldig lav kost (på ca. NOK10 pr. 375000 ord) så har slike kostnader en tendens til å utvikle seg voldsomt. Kanskje fordi leverandøren endrer prispolitikk. Eller pga. automasjon og nye bruksområder som medfører høyere bruk enn hva det innledningsvis var budsjettert for.
For å kunne komme med svar her må IT ta føringen og involvere compliance-kompetanse. Herunder personvernombudet, sourcing-kompetanse og juridisk kompetanse.
Beste måte å interagere med ChatGPT på i dag
Hvordan får du frem best mulig svar til ditt formål? Det lurte også Ronny Hermosa på. Han og Diana Munoz har en YouTube kanal som heter Design with Canva. Her lærer de andre hvordan de best kan bruke designverktøyet Canva.
Hermosa har lagd en detaljert YouTube video som er spesifikk for hvordan bruke ChatGPT innenfor grafisk design med Canva. Det han fant ut at fungerer best (som kalles «the art of prompting») kan brukes av alle.
- Vær så spesifikk som mulig istedenfor å spørre generelt
- Be om spesifikke resultater og gi deretter mer informasjon og kontekst i GPT-query feltet
- Bruk resultatene du får som grunnlag for å stille spørsmål på et dypere nivå, innenfor samme «konversasjon». Da husker ChatGPT konteksten du har etablert tidligere og gir deg mye bedre svar enn du ellers ville fått
- Du kan så be ChatGPT faktisk lage innholdet til «produktet» for deg. Det kan være en brukerveiledning, en aksjonsplan, en snutt med programvarekode, m.m. NB! Viktig å sjekke «sannhetsgehalten» i det som chatboten foreslår!
- Du kan også be ChatGPT oversette «produktet» til andre språk. NB! Noen ganger så finnes ikke ordet i lik betydning i språket den skal oversette til – da bruker chatboten synonymer som ofte endre forståelsen av innholdet. Du må sjekke teksten og evt. bruke originalordene der det trengs. Eksempelvis fant Hermosa ut at det engelske ordet «design» i hans use-case ikke hadde tilsvarende ord på fransk (som han ville oversette alt til). Dermed måtte han endre erstatningsordet fra ChatGPT sitt franske forslag tilbake til det engelske «design».
GPT-4.0 og Microsoft
De fleste har fått med seg at OpenAI offisielt lanserte GPT-4.0 den 14. Mars. I den forbindelse er det publisert markedsmateriell på OpenAIs nettside, samt en lenke der man kan laste ned en større teknisk rapport. Undertegnedes konklusjon er at produktutviklingen ikke har kommet så langt ift. språklige ytelsesforbedringer (85% nøyaktighet på engelsk tekst – de skandinaviske språkene er ikke vurderte, men ligger neppe over 80% nøyaktighet ut i hvilke andre språkmodeller som er vurdert) og sannhetsgehalt (gått fra i underkant av 50% til 60% jfr. TruthfulQA testen). Der modellen er blitt vesentlig bedre er å luke ut svar på det OpenAI definerer som “sensitive” områder (82% bedre enn GPT3.5 og hatefulle ytringer er kommet ned under 1%).
Funksjonelt sett har GPT-4 blitt multimodal. Det vil si at der GPT-3.5 kun håndterte tekst, kan GPT-4 også håndtere bilder og lyd som input. Dette kommer sannsynligvis som en direkte konsekvens av treningen av deres andre produktmodeller.
Det spekuleres i om OpenAI har blitt overtalt til å lansere GPT-4.0 noe tidligere enn de selv hadde ønsket. Ved å bli storeier av selskapet har Microsoft naturlig også kjøpt seg påvirkningsevne. To dager etter at OpenAI lanserte GPT-4 så kom Microsoft med lanseringen av en såkalt “Copilot” for Microsoft 365. Denne vil i første omgang bringe GPT-4 funksjonalitet inn i Office-produktene. Selskapet gir noen eksempler om bruk, som automatisk generering av referater fra Teams-møter, generering av presentasjoner (i Powerpoint) fra tekst (i Word), og saumfaring av e-postutvekslinger for å komme med forslag til Excel figurer. Microsoft sier dog lite om hva deres KI-løsning faktisk “gjør” med dataene dine. Alt som overvåkes (det skal også finnes en “BusinessChat” funksjon) må jo inn i Microsoft og OpenAI sine systemer for behandling (og læring). Her kan det blir mye advokatmat fremover.
I og med at Microsoft 365 har et bredt nedslagsfelt vil vi i en fremtidig blogg gå mer i dybden i ulike use-case for nye produkter som Copilot. I tillegg vil vi se på hvordan Microsoft i praksis bruker teknikken de kaller for “grounding” for å øke treffsikkerheten i svarene GPT-modellen gir.
Juridiske fallgruver
Foruten at vi selvfølgelig lurer på behandlingen av persondata vil en titt på lisens- og bruksbestemmelsene til OpenAI GPT-3.5 raskt avdekke en rekke andre åpne spørsmål:
Hvem har eierskap til- og ansvaret for det som genereres gjennom bruk av teknologien?
Herunder eventuelt falske (person)data og konsekvensene bruk av dette medfører? OpenAI gir brukeren “retten” til egen input og til den “output” som genereres, men tar ikke ansvar for at treningsgrunnlaget som er med på å generere “output” faktisk er rettmessig ervervet. Ansvaret for selve bruken av det som kommer ut av algoritmene ligger så i dine hender. Uten at du vet noe om konkret om datagrunnlaget for treningen og evt. lisensiering av dette for videre kommersielt bruk. Det er derfor ditt ansvar å sjekke at det du skal bruke svarene til den kunstige intelligensen til ikke bryter med noen andre sine rettigheter.
Hvordan brukes både input og output til/fra GPT-modellen til såkalte “tjenesteforbedringer”?
Det er jo åpenbart at OpenAI har tilgang til all informasjon og foruten å stipulere at de vil fjerne “personinformasjon” så vil de bruke alt annet med mindre man kontakter dem direkte med sitt organisasjonsnummer (og da forutsettes vel en betalt tjeneste som de kan monitorere og knytte bruken din til?) for å reservere seg. Samtidig har de et forbehold om at ChatGPT-tjenesten ikke kan slette det du faktisk skriver, så det blir opp til deg å holde sensitiv informasjon unna ChatGPT.
Hva med konfidensialtet og sikkerhet?
Det er kun brukeren som pålegges konfidensialtet ift. Informasjon du får om OpenAI og dets tjenester. De selv påtar seg ingen restriksjoner. Tvert imot så stipuleres at deres ansatte kan (og vil?) overvåke din interaksjon med systemet! Alt compliance ansvar ligger hos deg.
Hvordan påvirker bruksbegrensningene hva du kan gjøre med GPT eller ChatGPT?
Her finnes en rekke “du kan ikke” og “du kan bare”. Den kanskje viktigste å få med seg fra et kommersielt IT-utviklingssyn er at man ikke kan bruke produktene til å utvikle noe som er konkurrerende med OpenAIs egne tjenester.
Vi må håpe at trente jurister raskt kjenner sin besøkelsestid og vurderer GPT-4 lisens- og bruksbestemmelser i lys av norsk lov og potensiell skade for norske selskaper.
Fremtiden kommer NÅ, så her har ingen tid til å innta en “vente og se” holdning!
Erfaren leder og rådgiver innen innovasjon, IT strategi, digitalisering, annskaffelser, og outsourcing. Fokus på målbilde, omstilling og gevinstrealisering.