Lars Kristiansen, redaktør i NRK

Her er 15 ting du må vite om hvordan AI påvirker journalistikken i 2019

(KOMMENTAR): «AI er som olabuksa – kommet for å bli», skriver Lars Kristiansen.

Denne artikkelen er over to år gammel.

  • LARS KRISTIANSEN, redaktør i NRK

Akkurat nå blir mediehistorier researchet, faktasjekket og publisert av selvlærende dataprogrammer. Samtidig risikerer menneske-journalistene å bli lurt av de nye skurkene: Veldige stater og globale selskaper. Her er 15 ting du må vite om hvordan AI påvirker journalistikken i 2019. 

Artificial Intelligence (AI), Kunstig intelligens (KI), algoritmer, maskinlæring, selvlærende dataprogrammer, bot’er – begrepene er nye og bruken er upresis. I hovedsak snakker jeg her – for egen regning - om dataprogrammer som kan gjenkjenne mønstre i store mengder data, og i beste fall er skrudd sammen slik at de blir stadig bedre på det. Men vi skal nok innom et par andre automatiserte varianter også.   

AI har allerede revolusjonert publisering og konsum. Ennå gjenstår det mye for å dra fullt nytte av de mulighetene AI gir for journalistikken. 

  1. Elsk eller dø

Det er ikke noe mystisk ved AI – den menneskelige hjerne har små muligheter til å orientere seg i det enorme og raskt stigende informasjonshavet vi kaver rundt i. Dataprogrammer er overlegent mye bedre enn oss til å tygge svære mengder data. Og selvlærende dataprogrammer er enda bedre – de kan stadig forbedre sin egen treffsikkerhet.

AI vil påvirke alle sider av produksjon, distribusjon og konsumpsjon av informasjon.

De mediehusene som ikke klarer å få AI til sengs, går en kald natt i møte. De vil drukne i informasjonsflommen, eller måtte overleve på veldig små holmer og skjær.

Innsiktsfulle aktører spår at AI blir en motor i mediebruken, og en turbo for journalistikken.  

«Intelligent machines can turbo-power journalists’ reporting, creativity and ability to engage audiences. Following predictable data patterns and programmed to “learn” variations in these patterns over time, an algorithm can help reporters arrange, sort and produce content at a speed never thought possible”, skriver anerkjente Maria Teresa Renderos i Open Science Framework (OSF), i en artikkel som også er publisert i A Medium Corporation:

It can systematise data to find a missing link in an investigative story. It can identify trends and spot the outlier among millions of data points that could be the beginnings of a great scoop. For example, nowadays, a media outlet can continuously feed public procurement data into an algorithm, which has the ability to cross-reference this data against companies sharing the same address. Perfecting this system could give reporters many clues as to where corruption may be happening in a given country.

AI er kommet for å bli.

  

  1. AI er ikke trusselen

Også for journalistikken er AI en mye mindre trussel enn selve informasjonsoverfloden. Infomengdene gjør det vanskelig og i mange tilfeller umulig for journalister å finne frem til vesentlig informasjon på egenhånd – bare tenk på Paradise Papers millioner med dokumenter. Og om vi skulle greie det, er det tilsvarende vanskelig å nå helt frem til publikum med resultatet. Maskinlæring er en nødvendig hjelp til å løse begge problemer. 

Det er ikke en hjelp vi skal ta i bruk uten motforestillinger. Tek-guru Elon Musk mener farene er så store at han har utstedt dystopiske advarsler. Hans non-profit-satsning Open AI nektet nylig å publisere sin AI-drevne tekstrobot – av frykt for misbruk. Lokale tek-redaktører som Anders Lie Brenna i enerWe.no reiser mer prosaiske pekefingre: «Mens en tabloid desker kan strekke strikken litt langt av og til, vil en algoritme fortsette å strekke strikken så lenge den ser at resultatet blir bedre.»

Advarslene er legitime. Men vi er allerede på karusellen, og farten er så stor at vi ingenlunde kommer av.

  1. Robotjournalistikk:

Det finnes allerede tjenester som kan rapportere automatisk, særlig fra sportshendelser og finanslivet. De enkleste gjengir resultater med standardformuleringer, mer komplekse varianter forsøker for eksempel å lese og tolke og beskrive emosjoner i folkemengder.

Washington Post har hatt sin robot Heliograf i virksomhet i flere år allerede – fra september 2016 til september 2017 sparte den journalistisk håndkraft ved å produsere 850 artikler som dette fotballreferatet.

Robotenes overlegne hastighet er nyttig på flere områder. Los Angeles Times har laget en «Quakebot», som livetweeter jordskjelv (som også har klart å «live»-tweete et jordskjelv som skjedde for snart hundre år siden, ved en feil). AP bruker Wordsmith til å rapportere finans.

Roboter kan gå steder journalister ikke kommer til. Al Jazeera har eksperimentert med tanken om å koble droner med robotjournalistikk-programmer for å kunne rapportere mer presist fra krigssoner det ellers ikke ville være mulig å komme inn i – i hvert fall ikke uten å gå til sengs med en av partene.

Robotjournalistikken gir også nye finansieringsmodeller for mindre aktører: Svenske MittMedia økte nylig sin kundemasse med 1000 abonnementer gjennom en egen robotgenerert redaksjonell tjeneste om boligmarkedet. Roboten produserer 480 artikler om hus - i uken.

I Norge har Adresseavisa laget sin egen boligjournalistikkrobot. Kommunal Rapport har et robotprogram som spyr ut artikler om kommuneøkonomien så snart regnskapene er lagt ut. Nynorsk pressekontor fikk nylig støtte på 800 000 kroner til en nynorskrobot, NRK jobber visstnok med det samme.

Og NTB har lenge brukt roboter både i sports- og valgdekning, og hevdet at valgroboten fant journalistiske poeng raskere enn noen journalist ville gjort.

  1. Videoroboter

Alle med en smarttelefon kan få automatiserte videoproduksjoner ut av egne videoer og stillbilder. Mediehus tester også ut varianter som automatisk kreerer videoer på basis av skriftlige eller muntlige manus.  Store selskaper som Stern og CBS bruker for eksempel programmet Wochit til å automat-produsere videoer til sosiale medier. Her er et eksempel fra CBS’ Facebookside.

Den statlige mediebyrået Xinhua i Kina har tatt det et skritt videre, og lanserte rett før jul et virtuelt anker, som konverterer robot-generert tekst til tale fra en virtuell nyhetsoppleser i studio.  

  1. Overvåkning:

Flere av oss har satt opp autosøk i tjenesten Finn.no. På samme måte kan de fleste i dag sette opp robotsøk i sin nettleser, som kan rapportere tilbake i sanntid eller i bulk når de ønskede søkeordene omtales i noen av de valgte kildene. Om du er interessert i Jens eller Robert Stoltenberg – et enkelt robotsøk holder deg løpende oppdatert.

Flere store mediehus bruker mer komplekse overvåkningsprogrammer som skanner både andre nettsteder og ulike sosiale medier for nyhetshendelser eller andre relevante kodeord.

Buzzfeed bruker programmet Crowdtangle til alt fra å overvåke nettet for mulige virale videoer, til å måle egen suksess i sosiale medier.

Reuters la merke til at mange nyhetshendelser først blir omtalt på Twitter, og laget et eget program, Newstracer, som skanner alle tweets i verden (ca en halv milliard hver dag) – i sanntid. 

Programmer kan også automatiske skanne ansikter fra publiserte bilder og videoer, og settes opp til å rapportere tilbake når eksempelvis politikere synes i odde sammenhenger. Et slikt program koblet mot en database over reiseregninger for Stortingspolitikere, ville for eksempel kunne avslørt at Helge Andre Njåstad (FrP) leverte reiseregning for opphold på Hotell Ullensvang, samtidig som Instagram-poster viste at han feiret sin mors 60-årsdag der.

Siden journalist Peter Svaar i NRK ikke hadde et slikt program, måtte han selv søke innsyn i tre år med reiseregninger, manuelt systematisere dem i excel-ark, og selv måle regningene mot Njåstads publiseringer på sosiale konti. Forut for et slik prosjekt ligger det åpenbart mye godt kildearbeid. Dataprogrammer kan med andre ord gjøres oss mindre kildeavhengige i initiell frase, og overvåkningen mer systematisk. 

Ansiktsgjenkjenningsprogramvare kan også kobles til direktekameraer. Den kinesiske hightec-byen Shenzhen har installert kameraer med ansiktsgjenkjenningsprogram i gatekryss. Programmet kobler ansiktene til de som ferdes uforstandig med et politiregister, henger dem momentant ut med fullt navn og bilde på store skjermer i bybildet, og videresender til sosiale medier.

Frederick Bravey forteller til Bloomberg om hvordan han via kameraene fikk bot for å gå på rødt lys i Shenzhen – som ble trukket fra hans konto i samme øyeblikk han kom over gaten (5:40). Kina har investert stort i ansiktsgjenkjenningsteknologi, og både stat og store selskaper som Baidu sitter på store registre. 

  

  1. Analyser:

Det redaksjonelle prosjektet «Legekoden» som NRKs Brennpunkt vant Data-SKUP 2018 med, er et eksempel på journalistikk som ikke ville nådd publikum uten hjelp av algoritmer. Datajournalist Espen Andersen kommanderte sin datamaskin til å lagre, katalogisere og analysere 90 millioner fastlegeregninger – en uoverkommelig oppgave for den menneskelige hjerne.

Buzzfeed gjorde journalistisk nybrottsarbeid da de nylig avslørte nøyaktig når og hvor amerikanske myndigheter spionerer på egne borgere fra fly. Buzzfeed lastet ned samtlige flygninger over USA fra august til september i fjor, fra tjenesten flightradar24. Så analyserte de flygningene med et dataprogram som var satt opp til å gjenkjenne de normale mønstrene overvåkningsfly bruker. Programvaren hjalp nyhetstjenesten til å identifisere 200 “agentfly”.

“The FBI and the DHS (Homeland Security) would not discuss the reasons for individual flights, but told BuzzFeed News that their planes are not conducting mass surveillance, skriver nettstedet selv. Flere enn meg er sikkert spent på oppfølgingssakene.

Dataprogrammer kan oppfatte trender og mønstre og avvik i store datamengder, som det journalistiske øyet aldri ville sett. Selvlærende programvare vil åpne opp nye områder for journalistikken – viktige områder som er ugjennomtrengelige uten datakraft.

Evne til å skrape data og sette opp og analyser store databaser er avgjørende for undersøkende journalistikk nå og fremover.

  1. Følge og koble datastrømmer:

I Brazil har de frie mediegruppen Serenata brukt AI til å ettergå reiseregningene til de 513 politikerne i parlamentet. I følge Serenata har hver og en av politikerne har et månedlig budsjett på drøye 100 000 NOK til løpende utgifter. Mediegruppen har satt opp dataprogrammet Rosie til å løpende skanne alle refusjonskrav de leverer inn – med det formål å avdekke misbruk av offentlige midler.

Den redaksjonelle graveorganisasjonen OCCRP, som står bak en rekke avsløringer av korrupsjon, har i lang tid jobbet med et selvlærende dataprogram hvor reporterne legger inn modus operandi for korrupsjon, og programmet kontinuerlig skanner databaser og dokumenter for tilsvarende modi.

Hensikten er å avsløre korrupsjon etter måten den blir gjennomført på – uten at journalisten på forhånd har kunnskap om hvor eller hvem. Slik forklares det av Jonathan Stray i Colombia Journalism Review:

OCCRP is in the early stages of this “Crime Pattern Recognition” project. The concept is this: Reporters in the OCCRP network will submit narrative descriptions of the data pattern that led to their story, which programmers will then turn into search queries. Those queries will run continuously against incoming documents and data published by governments or obtained by OCCRP reporters from a wide variety of sources, including leaks and bulk FOIA requests.

OCCRP har også vært sentral i etableringen av verktøykassen Investigative dashboard, hvor journalister over hele verden kan søke i et utall databaser og dokumenter. Løsningen har nå lært seg å koble informasjon fra ulike dokumenter og baser, der hvor det kan være relevant. 

Det amerikanske nonprofit-satsningen på undersøkende journalistikk, Propublica, har tatt sitt publikum i bruk for å daglig scanne Facebook for politiske annonser. De har bedt publikummet sitt laste ned en programsnutt som fanger når brukeren får en politisk annonse på FB, og sender annonsen til Propublikas base.

Slik begrunner de satsningen:

«Online ads are usually seen only by the audience the advertiser wants to target, and then they disappear. This makes it difficult for the public to monitor them and hold advertisers, including political groups, accountable. This isn’t a partisan issue. We think it’s important for our democracy to check what politicians of all stripes are saying. Already, we've found deceptive ads, campaigns breaking FEC rules and political groups making misleading claims).”

I Norge har den prisbelønnede undersøkende journalisten Tarjei Leer-Salvesen nærmest på egenhånd satt opp søkbare databaseløsninger for en rekke offentlige postjournaler som ikke ligger på den statlige løsningen Einnsyn.no. Han har dermed tilgjengeliggjort store informasjonsstrømmer for journalister som ellers ikke ville kunne fulgt dem. Sist uke møtte han representanter for alle de største norske mediene, for å planlegge en felles dugnad videre for innsyn.no.

Evnen til å utvikle og bruke verktøy som kan følge, analysere og koble store datastrømmer er avgjørende for undersøkende journalistikk i 2019.

  1. Faktasjekk:

Paradise Papers-lekkasjen inneholdt 13,4 millioner dokumenter om komplekse offshore-investeringer. Selv i langt mindre undersøkende redaksjonelle prosjekt er informasjonsmengdene ofte betydelige, og til dels uoverkommelige for mennesker. Dataprogrammer kan hjelpe oss å sette sammen tidslinjer og finne hull og feil og mangler i researchen.

En rekke medieinstitusjoner jobber med egne faktasjekkende bot’er, så som UKs Fullfact (som annonserte oppstart av prosjektet i juni 2017), argentinske Chequeado og Africacheck.

Reuters ga ut en egen faktastatus om såkalt AFC (automated fact check) for et år siden – en oppdatert versjon burde antagelig være på vei.

Stadig mer informasjon er manipulert, slik som denne testen fra NRK Beta.  Manipulasjonene av både skrift, bilde og video og lyd er allerede så gode at det menneskelige sanseapparat er sjanseløst - de må møtes med stadig bedre mot-programmer for å avsløres.

Video-, bilde- og stemmegjenkjenningsprogrammer hjelper oss med å verifisere bilder og sammenhengen de er tatt i. Det kan fort gå galt når det slumses med. I den mest sette Brennpunkt-dokumentaren noensinne, Lykkelandet, fikk publikum i første versjon se bilder kriminelle bakmenn selv hadde lagt ut om hvor mye penger de hadde tjent – bilder som et bildesøk senere viste at bakmennene selv hadde rappet fra nettet. 

Tannpastaprodusenten Closeup Toothpaste satt tidligere denne måneden opp et eksperiment for å se om to ulike chatboter, Sol (Microsoft) og Lex (Amazone) kunne forelske seg. Etter tolv timer kontinuerlig prat kom den første kjærlighetserklæringen - et søtt eksempel på hva bot’er kan få til. Verre er det når aktører kan lage eller kjøpe bot-tjenester som spyr ut falske meldinger på sosiale medier. En stor oppgave for journalistikken fremover blir å avsløre om poster på sosiale medier er generert av mennesker eller bot’er. Til det trenger vi all den AI-hjelpen vi kan få. 

Kraften i manipulerte videoer er stor, og det pågår et rotterace mellom de som lager «deep fake»-programmer og de som jobber med programvare for å avsløre dem. En forskergruppe ved State University of New York oppdaget at manipulative programmer sjelden brukte bilder av personer med øynene lukket, og laget en programsnutt som avslørte manipulasjoner ved å lete etter video hvor personene ikke blunket. De publiserte sine funn i juni i fjor. Tre uker senere fikk gruppen en mail fra programmerere som «tok utfordringen», og nå ville lage «deep fake»-programvare med blunking. 

Uten hjelp av AI vil undersøkende journalister bli lurt – før eller siden.

  1. AI tar over publisering

Algoritmer spiller allerede en betydelig rolle i publisering og bruk av medieinnhold.

“According to an Accenture study from 2017, around 77% of users of digital news expect some form of personalization. Perhaps because it makes it easier for them to cope with the overabundance of information out there, skriver Ellen Schuster i en artikkel i A Medium Corporation. Hun føyer til at en annen forklaring kan være at brukerne allerede er vant til det fra Facebook.

Søkemaskiner, sosiale medier og annonsemedier er langt kommet i bruk av algoritmestyrt publisering: Dataprogrammer som samler informasjon om dine bruksmønstre og lærer av dem, for å gi deg et stadig mer personlig tilpasset utbud. Tanken bak er enkel – du vil bruke de tjenestene som i størst mulig grad gir deg det tilbudet du helst vil ha.

«Nye» strømmetjenester med tv-innhold er avhengig av algoritmestyrt anbefalinger for å nå brukerne med innhold de ønsker. De har lykkes, tatt hai-jafser av tv-markedet og flytkanalene ligger blodtappet tilbake.

Tradisjonelle avisbedrifter, som for eksempel Süddeutsche Zeitung, jobber med AI-varianter som kan hjelpe med å vurdere artiklenes priselastisitet (probability to pay). 

Daglig TV-seing 2016-2018 3-11 år.

Nye aktører blomstrer i bedet – vesle norske Matkanalen, som når cirka 700 000 seere månedlig på tv, har 1,4 millioner unike visninger månedlig på Snapchat – uforklarlig nok halvparten av dem fra Danmark, hvor hverken kanalen eller Snapchat-tjenesten Snapshow ennå er lansert.

Fremtiden er åpenbar: I 2018 ble året da norske 3-11-åringer så mer på strømmet tv enn flyt-kanaler. Og strømmet tv finner ikke sitt  publikum uten gode algoritmer.

Algoritmene har også revolusjonert annonsemarkedet. Programmatiske og Dynamiske annonser styres av algoritmer som lærer stadig mer om dine interesser og kobler dem mot annonser du kan være interessert i. For noen av løsningene ligger det en robot-auksjon mellom annonsører i bakgrunnen, hvor det på millisekunder bys og gis tilslag på annonsørplass. Jo mer selvlærende algoritmene er, jo mindre «dødvekt» må annonsørene betale for. Medier som er konstruert for print- eller flyt-annonser taper stadig terreng.

Algoritmer vil ta over styringen av mediebruk. Disse endringene vil få store konsekvenser for publikums bruk av innhold, og dermed for alle nåværende medieaktører.

Medier i Tyskland og Portugal har allerede gått sammen om felles innloggingssystem, og i Frankrike lanserte medier som til sammen har 80 prosent av landets internettbrukere en tilsvarende løsning nå i februar 2019. I Norge har Schibsted og Amedia åpent ønsket hverandre hjertelig velkommen til et lignende samarbeide – uten at noen av dem så langt har ville oppgi sin egen løsning.. 

Allerede nå kan altså en sak bli skrevet av en algoritme, bli faktasjekket av en annen, få video produsert av en en tredje, blir publisert av en fjerde, og sendt til en femte eller flere som velger ut hvilke publikummere og annonsører som skal få den. Algoritmestyrte modereringsprogrammer er allerede i bruk på kommentarfeltene, chatboter og overvåkningspgrogrammer kan fange opp reaksjoner og bruk/frafall, og sende sakene tilbake til programmer som løpende kan endre innhold, form og publisering. 

Og ingenting av dette må man strengt tatt være medieselskap for å få til – her kommer det åpenbart nye aktører på banen.

Hvert enkelt av disse leddene er foreløpig bare spirer – ingen vet hvordan de vil se ut når vi gjødsler dem med datakapasitet og erfaring og lar de slå ut i full blomst. Men det er ikke noen risikabel spådom at bedet kommer til å se annerledes ut enn i dag.

  1. Nye etiske utfordringer

AI er uten etikk, fordi etikk ikke er logisk. AI-nestoren  Mark Van Rijmenam mener AI heller ikke bør ha etikk: Unless AI is capable of being ethical—which at the moment it’s not, because it’s just logical—I don’t think it will be able to address these questions. I think we should leave those kinds of decisions to humans.”

AI er derimot en storprodusent av etiske dilemmaer – World Economic Forum har overordnet pekt på ni viktige: Unemployment, inequality, humanity, artificial stupidity, racist robots, security, evel genies, singularity/control, og robots rights. Listen kan raskt gjøres lengre – det diskuteres sågar aktivt nå om selvlærende, selvreproduserende dataprogrammer bør ha samme moralske status og krav på vern som dyr.

Hvordan påvirker dette den redaksjonelle etikken – utover å forsyne oss med nye temaer å lage journalistikk om?

  1. Kildekritikk:

Det mest iøyenfallende er skjerpede krav til digital kildekritikk.

I en verden der alt er kodet, kan alt være feilkodet.

Journalists have to be aware that algorithms may lie or mislead. They have been programmed by humans, who have biases, and logical patterns may lead to the wrong conclusions. This means journalists will always need to check results with their century-old verification techniques: crosschecking sources, comparing documents, doubting their findings, skriver Maria Teresa Ronderos.

Dette er særs viktig når vi bruker dataprogrammer til å faktasjekke research dataprogrammer har kommet opp med. Og det vil vi måtte gjøre: NRKs datajournalist Espen Andersen ser for seg mye morsomt (les; uoverkommelig) i line-by-line-gjennomgangene fremover, og lurer på om redaktøren noen gang vil komme med utsagn av typen:  «-Espen, vet vi helt sikkert at den pekeren på linje 5389 i korrupsjon.cpp er allokert i heapen?...»

I en verden der alt er kodet, kan alt også manipuleres.

Avsløringene av russisk påvirkning av amerikanske velgere startet en tvungen massejakt på falske «bot-konti» på sosiale medier. Twitter var en av de verst plagede – selskapet slettet 70 millioner konti bare i løpet av mai og juni i fjor.

«Deep fake», hvor programvare endrer videoinnhold på en måte som er umulig for øyet å avsløre, er den hotteste manipuleringsteknikken akkurat nå – men det kommer flere. 

Vi står i fare for å bli lurt av teknikksterke, eller for at teknikksterke klarer å lure seg unna oss.

Utviklingen av avanserte metoder for manipulasjon krever store ressurser og mye ekspertise. Det gjør stater og globale selskaper til aktuelle aktører. Hybridkrig og globale markedsinteresser kan vise seg å være drivende for utviklingen av manipulativ programvare.

Det gjør styrkeforholdet mellom manipulatør og medie til en etisk utfordring. Hva har en liten redaksjon i Norge å stille opp med når den skal finne ut av om infoen de har gravet frem er sann, eller manipulert av et gigantisk statsforetak eller globalt selskap i øst eller vest? 

Ingen norsk redaksjon er stor nok til å hamle opp med stater og globale selskaper. Det finnes ingen annen løsning for å utligne styrkeforholdet nå, enn å gå sammen i større redaksjonelle nettverk og samarbeid.

Det er helt avgjørende at vi utvikler og behersker avanserte verktøy for å skille manipulert fra virkelig. Den undersøkende journalistikkens eneste salgsargument i informasjonsflommen, er garantien om at det som publiseres er riktig og virkelig. Tap av tillit hos publikum til at vi overholder denne garantien, er den største faren for undersøkende journalistikk og dens rolle i demokratiet.

Fremveksten av manipulativ programvare vil uansett svekke publikums tillitt også til journalistikk. Derfor blir åpenhet og gjennomsiktighet om research, kilder, arbeidsmetoder, og mulige bindinger og motiver, mye mer avgjørende enn hittil i den redaksjonelle etikken. Vi må aktivt forklare hva vi gjør, hvorfor vi gjør det, og legge til rette for at publikum kan se oss i alle kortene.

  1. Kildevern:

Den største trusselen mot journalistikken er likevel den trusselen mot kildevernet som ulike lærende programmer utsetter oss for.

Digitale dokumenter vi mottar kan utstyres med unike id-tager i koden som gjør at de kan spores i etterkant. Overvåkningsvideoer koblet med ansiktsgjenkjenningsprogrammer, tilgang til mobilposisjonering, bompasseringsdatabaser, kontobevegelser – alt KAN nå spores raskt av riktige programmer der hvor myndigheter har lovlig tilgang. Kildejakt er blitt en fullt mulig øvelse.

Mediebransjen i Norge, inkludert meg, har lenge etterlyst et lovforbud mot kildejakt. Forslaget til ny straffelov gikk ikke i riktig retning. Heller ikke forslag nå på nyåret om endringer i straffeprosessloven tilfredsstiller bransjens ønsker. Og presseorganisasjonene er aldeles enige om at forlaget til ny lov for Etterretningstjenesten er et alvorlig tilbakeskritt. «The chilling effect» av å bryte kildevernet (vol6-2018-1) er omdiskutert, men så langt vært langt avgjørende vekt på av EMD. 

Jeg vil anta de fleste norske journalister kan underskrive på betydning av at kilder kan snakke anonymt med journalister – og på hvor ødeleggende det vil være om kilder ikke kan stole på at journalister klarer å holde dem anonyme.

Lovarbeid er langsomt, mens teknikkutvikling er rask. Journalistikken kan ikke vente på lovmakerne – det er avgjørende at vi behersker arbeidsmetodikk og teknikk som verner om kildevernet.

  1. Redaktørrollen:

Også nye distribusjons- og konsumpsjonsformer gir nye etiske utfordringer – våre artikler kan fort bli kjørende rundt mellom plattformer og medier som herreløse biler. Uklart redaktøransvar og ulike selskapers redaktørskjønn er en etisk utfordring – som NRK opplevde senest i februar i år, da et av våre program ble sensurert av Apple.

  1. Dobbeltroller:

Algoritmenes kosthold er brukerdata. Washington Post oppgir ublu at de søker data om brukerne overalt hvor de kan finne det. “We may collect personal information about our users in various ways. For example, we may collect information that you provide to us, information that we collect through your use of the Services, and information that we collect from publicly available sources or third parties.”

I en artikkel om Facebooks jakt på data om oss, skriver New York Times’ Natasha Singer at hennes avis burde omtales i samme åndedrag: Many other companies, including news organizations like The New York Times, mine information about users for marketing purposes.

Mediebransjen blir i denne sammenheng like mye aktør som rapportør – journalistikken om datasamling og dataeierskap er allerede legitimt stor og aggressiv, men må passe på å ta høyde for og være åpne om at våre egne arbeidsgivere er i samme bransje.

  1. Ny tematikk

AI reiser så mange spørsmål på så mange felt at det er stoff nok til alle – både roboter og menneskejournalister. Det er ikke mulig å overskue hvilke mengder tematikk som vil dukke opp. Men det er mulig og lurt å peke noen felt vi bør være opptatt av allerede nå.  

Vi har allerede påpekt at AI reiser en mengde etiske dilemmaer – også innen journalistikken – som vi må og bør dekke.  

Adoption Rate of Artificial Intelligence by Industry.

Hvis vi ser på graden av adopsjon av AI bransjevis, ser vi at tek-selskaper, bilproduksjon og finanstjenester topper kurvene, tett fulgt av energi og media. Vi har allerede en stund dekket Facebook og Googles algoritmer – og hvem som har ansvaret når biler med AI bak rattet krasjer.

The Most Common Use Cases of AI.

Vi burde kanskje raskt se nærmere på finansbransjen. 

På denne oversikten er helseområdet nede på niende plass. Men her er det grunn til et obs: Helsemarkedet er kjempestort, og domineres av store aktører med lang adopsjonstid for ny teknisk infrastruktur. Men det som skjer i spissen av helsesektoren, kan fort bli et paradigmeskifte. Hvis vi ser på kost-bruk analyser fra samme McKinsey-rapport, ligger pasientdatabehandling på tredje plass, bare to prosentpoeng bak listetopp.

Det er vanskelig å tenke seg mer personlig informasjon enn pasientdata – inkludert DNA. Rettighetene til de dataene, og hvordan de brukes, bør være vel verdt å følge med på.

Et interessant eksempel er biotek-investorselskapet i Deep Knowlegde Fund i Hong Kong, som utviklet et AI som har fått styreplass i selskapet. Medisinindustri er preget av mye feilslått forskning – fondet var nær konkurs etter å ha investert jevnlig i utvikling av medisiner mot store folkesykdommer. Dataprogrammet Vital lærte dem raskt at aldersforlengende medisin var et investeringsobjekt med færre feilslåtte prosjekt, fikk styret med på å omdirigere investeringene, og reddet fondet. Man kunne kanskje hyptetisk utlede at dersom resultatet er at flere dør tidlig av folkesykdommer, vil resten kunne leve lenger – og investeringene vokse videre. Bra for fondet og økonomien, men kanskje verdt noen redaksjonelle ord om de menneskelige omkostningene. 

Det er verdt å merke seg også at den undersøkende journalistikken raskt kan dras mot områder med gode datasett. Før datajournalistikkens inntog bidro den undersøkende journalistikken ofte med å avsløre sammenhenger og oversikter der myndighetene ikke hadde eller ville by på slik oversikt. Redaksjonssjef Reidar Kristiansen i NRK har løftet en bekymring om at slike områder nå blir nedprioritert, og påpeker at gode undersøkende redaksjonelle prosjekt om kriminalitet som ikke blir anmeldt, eller selvmord i psykiatrien, er eksempler på slike områder. 

OPPSUMMERING

  • AI er som olabuksa – kommet for å bli. Medieselskaper vil komme og gå, men uansett må journalistikken må forholde seg aktivt til AI, eller dø.
  • AI er en turbo for journalistikken, som raskere enn noen trodde var mulig setter oss i stand til å:
  • Robotprodusere der det er egnet, og frigjøre tid og ressurser til større undersøkende oppgaver
  • Overvåke omgivelsene og spotte nyheter, hendelser og trender
  • Overvåke og koble datastrømmer og avsløre korrupsjon og ulovligheter
  • Analysere enorme datamengder og avsløre mønstre, feil og mangler
  • Drive aktiv digital kildekritikk, og avsløre manipulasjoner og manipulatorer
  • Faktasjekke egen research og andres publiseringer, finne feil og mangler og hull
  • Publisere smartere, nå og engasjere flere
  • AI krever mye av journalistikken. Ny kompetanse og nye samarbeid må utvikles.
  • AI produserer etiske dilemmaer og utfordringer i en rivende fart. Journalistikkens krav til omverdenen, og første og siste svar for egen del, må være total transparens.

Datamaskin-opererte algoritmer er bedre enn den menneskelige hjerne på spesifikke oppgaver – hvilket en forbløffet sjakkverden fikk øynene opp for da Deep Blue slo verdensmesteren Kasparov. Men algoritmer har så langt ikke generelle egenskaper – Deep Blue kan hverken kinasjakk eller kjøre bil, slik Kasparov kan. Såkalt AGI, Artificial General Intelligence, er ennå helt i det blå. Slik sett er menneskelig produsert journalistikk så å si AIs versjon 2.0:

Journalister er langt på vei de siste generalister – vi er ikke spesialister i noe, utover i journalistisk metode for å skaffe oss, sette sammen og publisere kunnskap fra mange ulike felt. Det skal vi fortsette å gjøre – nå med AI i verktøykassa.

Som tek-redaktør Anders Lie Brenna sa: Algoritmen er en god tjener, men en dårlig herre.

Powered by Labrador CMS