Tag Archives: journalistikk

Datastøttet journalistikk

Journalisten Espen Andersen (ikke BI-mannen) er en journalist som bruker dataverktøy. Det burde kanskje ikke være noen bombe at en journalist bruker dataverktøy, men det er nesten det.

Vi bruker alle dataverktøy, men få av oss går lengre enn publiseringssystemet og kanskje en tekstbehandler. Espen Andersen bruker dataverktøy for å finne frem til nye journalistiske vinklinger og poenger.

Mye av hans journalistiske arbeid består i å programmere og drifte sine egenutviklede løsninger. Han har jobbet mange år i Budstikka, det som tidligere het Asker og Bærums budstikke, men er nå ansatt i Brennpunkt-redaksjonen i NRK.

Denne uken tilbringer jeg på SKUP’s gravekurs, på et hotell i Tønsberg. SKUP er en forkortelse for Stiftelsen for en Kritisk og Undersøkende presse. Målet er å bli en bedre journalist, samt å få inspirasjon og lærdom som kan løfte digi.no noen hakk fremover.

Her har vi fått kurs i emner som politiets avhørsteknikker, søk i offentlige postjournaler, avansert intervjuteknikk, bruk av Excel (ikke akkurat nytt for meg som IT-mann) og i datastøttet journalistikk. Kurset pågår fortsatt og vi har flere poster på agendaen, men i dette innlegget tenkte jeg å ta for meg datastøttet journalistikk.

Datastøttet journalistikk, eller Computer Assisted Reporting (CAR), er et tema med mye potensiale, men det er stort sett et uutnyttet. Vår foreleser Espen Andersen, som jeg forøvrig har gått på videregående sammen med, forklarte litt om hvordan han jobbet journalistisk gjennom programmering og dataverktøy.

Begynte med skattelistene

I en semesteroppgave ved Høgskolen i Oslo (HiO) i 2003 skrev Andersen om skattelister som journalistisk metode: Journalistikk eller dyneløfting? Skattelistene som kilde for datastøttet journalistikk.

Der tar han blant annet for seg hvordan skattelistene brukes journalistisk, men også hvordan informasjonen der kan brukes til langt mer kvalitetsorientert journalistikk enn den tradisjonelle tabloide fremstillinger: “rik”, “rikest”, “fortsatt rikest”, “tjente mest”, “stinn av gryn”, “høyest formue” og så videre.

Gjengangersakene blant de avisene Andersen undersøkte så slik ut.

  • Hvem er rikest i bygda?
  • Hvem er den største skatteyteren?
  • Hvor bor de rikeste?
  • Hva tjener og eier de rikeste?
  • Hva tjener kjendisene?
  • Hvor mange rike kvinner finnes det?
  • Hvor mange millionærer har vi?
  • Hvor mange ungdomsmillionærer har vi?
  • Hva har politikerne å tjene?
  • Hva er gjennomsnitts- og totaltall?
  • Hva tjener naboen?

Uten at jeg har undersøkt nærmere, så innbiller jeg meg at denne listen stemmer ganske godt også med dagens skatteliste journalistikk.

Andersen var ikke fornøyd med dette, og brukte sine datastrukturerte skattelister til å jakte på nye nyhetsvinklinger.

  • Er det stor forskjell på fattige og rike?
  • Hvor mye eier de rikeste av den totale formuen?
  • Hvor bor flest gamle og unge?
  • Har Asker og Bærum en frivillig forgubbing?
  • Hva er den vanligste formuen på Høvik?

Han fant svarene i de datastrukturerte skattelistene og de dannet utgangspunkt for litt mer dyptgående og analyserende journalistikk.

Senere har Andersen jobbet videre med datastøttet journalistikk, og har blant annet laget Eiendomsbasen, en digital oversikt over transaksjoner i eiendomsmarkedet i Asker og Bærum, samt et postlistesøk for landets 18 fylkesmenn.

Hans siste prosjekt er politikerbasen, et prosjekt for å vise hva slags verv og interesser landets politikere har ved siden av jobben som politiker. Prosjektet er langt fra ferdig, og Andersen forteller at han og Brennpunkt har ambisjoner om å videreutvikle den med nye funksjoner og innhold slik at den etterhvert kan kalles “Maktbasen”.

Teknikkene som Andersen bruker, er ikke så avanserte sett fra et IT-ståsted. Han bruker stort sett screen scraping løsninger for å samle inn informasjon og lagre det i en MySQL-database. Programmet som henter informasjonen er programmert i C#, og så bruker han PHP til nettsidene. Systemene er heller ikke fullautomatiserte, men de dekker de journalistiske behovene.

En lightweight-utgave av denne formen for datainnsamling og strukturering kan man også gjøre ved hjelp av Excel, hvis man ikke ønsker å sette seg ned for å lære programmering.

Bruk av søkemotorer i journalistikken

Jeg har over litt tid fundert litt på mulige prosjekter for å kjøre litt datastøttet journalistikk. Som en tidligere programmerer som skriver om IT-bransjen, burde forutsetningene være godt tilstede. Min nysgjerrighet er imidlertid mer rettet mot søketeknologi, enn databaser.

I dag bruker vi ofte eksterne og offentlige søkemotorer for å finne informasjon som vi trenger til en artikkel. De er imidlertid ganske hemmet av at tjenestene er tilpasset det åpne markedet. Google er for eksempel en god søkemotor, men den er ikke spesialtilpasset en journalists informasjonsbehov.

Dessuten er den altfor høflig. Hvis et nettsted legger inn begrensninger i Robots.txt-filen, så dropper Google å indeksere den. Det er for eksempel tilfelle med Telefonkatalogen.no, regnskapsinfotjenester som Proff.no og Purehelp.no, samt at noe av informasjonen fra Brønnøsundsregisteret.

Interne søkemotorer derimot, trenger ikke å forholde seg til den typen begrensninger. De kan settes opp til å samle inn lokal informasjon fra lokal PC, fra et filshare, fra epost og fra intranettet. I tillegg kan man spesifisere eksterne nettsteder som man ønsker å hente inn lokal informasjon.

En annen viktig funksjon, er muligheten for at informasjonen vises i søkeresultatet, istedenfor at man må klikke videre på lenken som vises. Dette bruker blant annet Google internt i sin bedrift. Hvis noen søker på et firmanavn der, så dukker relevant informasjon automatisk opp i søkeresultatet. Det kan for eksempel være navn, bilde og kontaktinformasjon for selskapets Key Account Manager som har ansvaret for den kunden (Jeg jobber med å skrive ut en reportasje om dette på digi.no).

Jeg tror at bedriftsintern søketeknologi er veien å gå for datastøttet journalistikk. Utfordringen er at det tar litt tid og penger for å få slike løsninger på plass, og det trengs litt prøving og feiling før man har fått den slik man vil ha den. Når det er på plass, vil det imidlertid kunne gi en god avkastning i form av både raskere og bedre saker.

Dessuten tror jeg at søketeknologien vil kunne åpne dørene for kostnadseffektiv etterforskende journalistikk i nettaviser. Jeg har noen skisser og ideer på hvordan, men de får jeg nesten komme tilbake til i et senere innlegg.

Politiets avhørsteknikk som journalistisk metode

Politiavhør og journalistiske intervjuer er ikke det samme, men de har endel fellestrekk.

SKUP’s graveskole lærer vi diverse metoder for å bli bedre på etterforskende journalistikk. Da var det kanskje ikke så unaturlig at kurset startet med en innføring i hvordan politiet jobber i avhørssituasjoner.

Politioverbetjent og doktorgradsstipendiat Asbjørn Rachlew, foreleste om hvordan politiet nå jobber med politiavhør. Det var et imponerende foredrag, og jeg lot meg imponere over hvor systematisk og gjennomtenkt dagens norske avhørsmetoder er i dag.

Rachlew var imidlertid klar på at det ikke alltid har vært slik, og at tidligere avhørsteknikker har vært både fraværende og til tider manipulatoriske. Han har jobbet mye med å systematisere de norske avhørsmetodene, både for å få bedre resultater og for å sikre mistenktes rettssikkerhet.

På foredraget presenterte han politiets avhørsprogram K.R.E.A.T.I.V. Det er en seks trinns modell:

  1. Planlegging
  2. Kontaktetablering / introduksjon
  3. Fri forklaring
  4. Sondering / konfrontering
  5. Avslutning
  6. Evaluering

Modellen er dynamisk, men strukturen er hensiktsmessig oppbygd og tilpasset politiets behov. Jeg vil ikke gjøre en nøye gjennomgang av den, da jeg ikke tror det er hensiktsmessig i forhold til hva mistenkte og siktede “trenger” å vite på forhånd. Dessuten er mange av punktene selvforklarende.

Det viktigste momentet er fri forklaring. Det vil si at vitnet eller den mistenkte skal ta seg tid til å snakke fritt og uavbrutt. Det er først etterpå at vedkommende skal konfronteres med eventuelle motstridende opplysninger.

Dette er viktig for at momentene skal komme kunne legges frem på en god måte. Mange vil oppleve det å bli avhørt som en stressende situasjon, og det vil ikke være til hjelp om politiet hele tiden avbrøt med aggressive spørsmål

Avhengig av hvem som intervjues, som for eksempel om det er et vitne eller en mistenkt, så vil politiet legge en taktikk for avhøret. Det er imidlertid viktig i planleggingen av taktikken at mulighetene for alternative forklaringer hele tiden holdes åpen. Uten å røpe noen detaljer, så kan jeg si at jeg lot meg imponere over måten politiet jobber på i forbindelse med intervjuene.

– Konspirasjonsteorier er stort sett det eneste som står igjen når vi har lykkes med taktikken, sier Rachlew.

Som journalist kjente jeg igjen endel av teknikkene, selv om jeg ikke har vært like strukturert i mine intervjuer. På et times langt fagintervju pleier jeg som regel å la de første 10 minuttene gå med til fri prat fra den jeg intervjuer. Da spør jeg gjerne noe sånt som: “Hva vil du fortelle meg?”

Så begnner jeg å stille spørsmål etterhvert som samtalen utvikler seg. Forskjellen mellom slike journalistiske intervjuer og politiavhør er imidlertid til tider ganske stor, spesielt på rene fagintervjuer. Da er jeg stort sett bare ute etter informasjon. På litt mer aggressive intervjuer, der intervjuobjektet mistenkes for å ha gjort noe galt eller uetisk, kan jeg imidlertid være litt hardere.

Neste gang jeg gjør et sånt intervju, skal jeg prøve å bruke politiets avhørsmodell. Det kan bli gøy. er det noen som har noen forslag til sak og person jeg bør prøve det ut på? :-)