Debatt ● Per Arne Bjørkum

Vi drukner i verdiløse publikasjoner

Det er nok datamodeller av naturen nå.

Portett av Per Arne Bjørkum
— Pseudovitenskap, kaller forfatteren publisering av datamodeller. Han foreslår at utgiverne slutter å publisere innhold som kun baserer seg på datamodeller og bare slippe til artikler som beskriver noe nytt eller kritikk av det teoretiske grunnlagt for det som er publisert.
Publisert

Denne teksten er et debatt­inn­legg. Inn­holdet i teksten uttrykker forfatterens egen mening.

Antall publikasjoner øker eksponentielt. Man skulle derfor tro at det var en tilsvarende vekst i kunnskap, men det er ikke noe som tyder på det. 

Tar du for deg lærebøker i naturvitenskap fra de siste 10—20 årene, er det lite nytt. Det som ifølge publikasjonene har økt, er mulig kunnskap, noe som kan tenkes å være sant, og det er det ikke plass til i lærebøker.

Mye av det som publiseres bygger nemlig ikke på eksperimenter eller empiriske undersøkelser av naturen, men på datamodeller av den. 

Og stadig mer går ut på å sammenligne hva ulike datamodeller (om det samme) kommer ut med, dvs. forskerne tester modellene opp mot hverandre. 

De menneskeskapte datamodellene har med andre ord blitt en erstatning for virkeligheten. Dette har blitt så vanlig aktivitet, at det har fått sitt eget akronym: MIPs («Multi-model intercomparison projects», se også her.

Disse forskerne jobber slik akademikerne gjorde før oppfinnelsen av den vitenskapelige (eksperimentelle) metoden og bruken av matematikk på 1600-tallet. 

I middelalderen laget forskerne tankemodeller av naturen og utførte såkalte tankeeksperimenter med dem. Modellene var logisk bygget opp. Forskerne var overbevist om at det de var i stand til å tenke, representerte virkeligheten. De baserte seg nemlig på logikklæren til Aristoteles, datidens Einstein, og den gudegitte fornuften. Forskerne drev derfor med det vi i dag omtaler som «eksperimenter uten natur».

Dagens datamodeller har de samme grunnleggende (logiske) trekkene, men de er bygget opp omkring moderne matematikk — som er gjort om til et programmeringsspråk som datamaskiner forstår. 

Å gå gjennom oppbyggingen av modellene, som kan inneholde så mange instrukser at de ville de fyller flere bøker, krever derfor spesialkunnskap. De færreste ser seg derfor i stand til å gå kritisk gjennom datamodellene (det gjelder også brukerne av datamodellene). 

Man er derfor henvist til å se på hva som kommer ut av datasimuleringene, som tidvis omtales som «observasjoner» (som om de representere virkeligheten).

Fordi modellresultatene spriker, har forskerne begynt å oppgi sannsynligheten for at det de hevder er sant, ved å bl.a. regne ut det aritmetiske gjennomsnittet fra flere modeller eller flere kjøringen med samme modell. Ved å ty til et statistisk språk i formidlingen av resultatene, har imidlertid forskerne gjort konklusjonene immune mot falsifisering.

Ved å ty til et statistisk språk i formidlingen av resultatene, har imidlertid forskerne gjort konklusjonene immune mot falsifisering.

Per Arne Bjørkum

Sannsynlighetsutsagn om enkelthendelser kan nemlig aldri tilbakevises med henvisning til erfaringen. Det vil alltid være mulig å forsvare påstanden med at det var en viss sannsynlighet for at det ikke skulle inntreffe. 

Slike påstander havner derfor ifølge Karl Popper i kategorien pseudovitenskap, dvs. verdiløs forskning. 

Det er vanskelig nok å teste presise påstander. Det tok over 150 år før fysikerne innså at Newtons teori om den universelle gravitasjonen ikke var (helt) korrekt.

Mitt forlag til forbedring, er at utgiverne slutter å publisere innhold som kun baserer seg på datamodeller (det kan forskerne eventuelt ta opp seg imellom). De vanlige tidsskriftene bør bare slippe til artikler som også kan vise til nye målinger, nye eksperimenter, eller artikler som kritiserer det teoretiske grunnlagt for det som er publisert. 

Det var slik forskerne som fremdeles dominerer lærebøkene i naturvitenskap jobbet.

Powered by Labrador CMS