ImpactStory

ImpactStory är en webbaserad open source lösning som är till för att hjälpa forskare att hålla koll på sin output. Särskilt output som inte mäts med traditionella medel du kan samla statistik från exempelvis github och följa impact av eventuell mjukvara du skapat.

Just nu kommer det upp fler och fler verktyg av denna typ, och det blir viktigt att att fråga sig själv; hur mycket arbete krävs för att vara aktiv på alla plattformar? Vilken nytta har jag av att vara aktiv på just denna plattform? Är jag redan med i andra nätverk som fyller samma funktion? Var är mina kollegor aktiva?

ImpactStory som verktyg hamnar någonstans mellan en forskarprofil och ett altmetricsverktyg. De marknadsför sig med orden:

“Your CV, but better.

Impactstory looks great and works beautifully. The new standard for scientific CVs.
Pietro Gatti Lafranconi, Cambridge University””

https://impactstory.org/
Helt klart ett spännande verktyg, här kommer en video om hur du kan knyta ditt googlekonto till ImpactStory:

Text: Thomas

Svenska nivå 2 kanaler i det norska systemet

Norska modellen är en bibliometrisk del av den prestationsbaserade resurstilldelningsmodellen. Den bibliometriska delen baseras på antalet publikationer och citeringar. Den norska modellen mäter publiceringsaktivitet. I modellen poängsätts vetenskapliga publikationer baserat på publikationens kanal (förlag, tidskrift/serie eller webbplats) och publikationens form (artikel, kapitel, monografi). Kanaler är indelade i nivå 1 och nivå 2. Publikationer publicerade i nivå 2 tidskrifter ger mer poäng än nivå 1 tidskrifter. Sedan är det upp till varje lärosäte att bestämma hur poäng räknas: hur många poäng får en artikel, en monografi eller ett kapitel i en bok.

En del svenska lärosäten använder den norska modellen för resurstilldelning. Även om citeringar (se förra inlägget), eller den här typen av listor inte ska användas som mått på kvalitet (vi missar den enskilda verkets kvalitet när vi istället värderar förpackningen, dvs tidskriften eller förlaget), så är det så verkligheten ser ut. Därför kan det vara fördelaktigt att välja en kanal som ligger på nivå 2 i den norska modellen. Databasen till publikationskanaler hittar du här.

Det går söka fram svenska nivå 2 tidskrifter och förlag om du är intresserad av det. Om du går till avancerad sökning, väljer Sverige som land och nivå 2 i Scientific level får du träff på 9 tidskrifter som är värderade på nivå 2 i den norska modellen. Är du mer intresserade av nivå 1 så ändrar du den Scientifc level till nivå 1. Då finns det 22 tidskrifter listade. Låter du blir välja nivå så får du träff på alla svenska tidskrifter/förlag som är accepterade in i den här listan. På samma sätt kan du ta fram tidskrifter och förlag från andra länder som har godkänts in i listan. I den avancerade sökningen kan du begränsa dig till disciplin eller ämnesområde. Du kan också få fram vilka open access -tidskrifter finns med på listan.

Det är inte särskilt många svenska tidskrifter i den norska listan då det är norska och internationella tidskrifter som premieras. Det går dock att lämna in förslag på nya tidskrifter och/eller kanaler.

Pieta Eklund

”Svensk forskning är internationellt konkurrenskraftig”

Vetenskapsrådet har precis publicerat en rapport om svensk vetenskaplig produktion med titeln Svensk vetenskaplig produktion och publiceringsmönster i ett internationellt perspektiv. I rapporten jämförs i vilken omfattning som svenska forskare citeras, och hur mycket svenska forskare publicerar sig i förhållande till forskare i andra länder. De skriver också att citeringar används som mått på forskningens genomslag och kvalitet. Det är roligt att läsa att svenska forskare är högt citeras och att svenska forskare producerar mycket. Rapporten visar också att andelen ociterade publikationer är låg i Sverige. Det stämmer alltså inte att svenska forskare skulle vara dåligt citerade trots ökade forskningsmedel. Det finns dock forskning som aldrig blir citerad och det finns många anledningar till detta, bl.a. att forskningsområdet är litet och/eller publikationen är på svenska. Glädjande, i vilket fall, är att svensk forskning används (citeras) av andra.

Det som jag finner problematiskt är att citeringar används som mått på kvalitet, data som rapporten baseras på bygger på samma grundmaterial som Web of Science har, och att det är en begränsad typ av publikationer som ingår i urvalet.Olika områden har olika publiceringstraditioner.

En citering säger inte något om varför en annan citerar det någon annan har skrivit. Kanske är det för att visa på ett dåligt exempel på hur forskning inte ska gå till? Kanske självciteras det mycket? Eller kanske är svenskar mer benägna att citera varandras forskning än forskning från andra länder? Tolka mig rätt nu. Jag menar varken att svensk forskning är dåligt, att det självciteras eller att svenskar bara citerar andra svenskar! Jag menar, och jag vet att många håller med mig, att det är problematiskt att säga att citeringar är ett mått på kvalitet. Däremot har citeringar många andra funktioner. Forskare citerar av olika anledningar och citeringsfönstret (antal månader/år en publikation är “citeringsbar”) varierar mellan olika vetenskapliga traditioner.

Huvudpoängen är att svensk forskning används. Nu ska vi bara bli bättre på att omsätta forskning i innovationer som gynnar oss vanliga människor (men även samhället och industrin)!

Pieta Eklund

Vilseledande bibliometri (eller impact factor)

Det är inte bara den snabba granskningsprocessen och låga publiceringsavgifterna som lockar forskare att publicera i tveksamma open access-tidskrifter, det är även kravet från lärosäten och andra på att forskningsresultat måste spridas (publicera) – helst i open access-tdiskrifterna. Av olika anledningar har marknaden för tveksamma open access-förlag och tidskrifter ökat och det har varit och forsätter att vara svårt att skilja mellan respektabla och tveksamma tidskrifter. Det finns dock kännetecken som hjälper en att avgöra seriösitet i tidskrifterna och förlagen, bl.a. guiden om tveksamma oa-förlag och bloggen Scholarly Open Access.

Ett kännetecken på en seriös tidskrift har varit Journal Impact Factor (JIF). Det handlar om hur mycket tidskriften artiklar citeras av andra under loppet av bl.a. två år eller fem år. Det är Thomson Reuters Journal Citation Report (JCR) (endast personal och studenter vid Högskolan i Borås har tillgång till databasen via denna länk, det finns ingen gratistjänst att kontrollera om en tidskrift har JIF) som har räknat fram dessa siffror. Även Scopus (Elseviers produkt) har tagit fram liknande siffror som de istället för JIF kallar för SJR (SCImago Journal Rank). Båda företag räknar på olika sätt så siffrorna för en specifik tidskrift ser olika ut. En tidskrift kan finnas i både, i den ena men inte i den andra, eller inte i någon av dem.

Anledningen att impact factor är viktigt är för att forskare kan i olika slags utvärderingar få flera poäng och i slutändan mer pengar för artiklar som finns publicerade i tidskrifter med hög impact factor. Det kan dock ta flera år för en tidskrift att få en impact factor så som den räknas fram i JCR. Det finns kriterier innan en tidskrift tas med i JCR, bl.a. tidskriften har funnits ett antal år, att nummer i tidskriften publiceras med jämna mellanrum och att kvalitet är hög enligt JCR:s bedömning. Detta betyder att det är få tveksamma tidskrifter som har impact factor.

Det som skapar problem nu är att under det senaste året har det dykt upp många webbsidor som menar att de tar fram impact factor för tidskrifter. Detta för att konkurrensen bland alla tveksamma tidskrifterna har ökat under åren och ett sätt att vinna över sin konkurrent är att ha en impact factor. Tveksamma förlag kan skaffa sig impact factor på två sätt: ljuga eller be en av dessa nya sidor som sysslar med vilseledande bibliometri att beräkna fram en siffra för sin tidskrift.[1]

Det finns en lista över sidor som sysslar med vilseledande bibliometri.

I exemplet nedan har företaget försökt med att ge ett exempel på hur de räknar fram ASI-Impact factor. Jämför texten från ASI med det från Wikipedia; ASI har kopierat texten direkt från Wikipedia. Klicka på bilden för att förstora den.

asi wikiPieta Eklund

[1] Det finns de som menar att det är bra att detta problem dyker upp för att då kanske kan beslutsfattare och forskningsutvärderare inte använda impact factor för att felaktigt mena att impact factor speglar kvalitet i tidskrifter/artiklar.