“WE LOVE THE LIBRARY, BUT WE LIVE ON THE WEB.”

Onder de prachtige titel “We love the library, but we live on the web” zijn de resultaten gepubliceerd van een enquete naar online bibliotheekdiensten in het Verenigd Koninkrijk. De uitkomsten zijn niet heel verrassend. Iedereen wil altijd overal en met elk device bij kunnen, partijen als Google zetten de standaard waaraan bibliotheken ook moeten voldoen etc.

Het mooiste onderdeel vind ik de antwoorden op de laatste vraag: beschrijf in 140 tekens (jawel) je ideale online bibliotheek in 2020. In het rapport staan de 30 meest aansprekende antwoorden verzameld.

Mijn favoriet:

In 2020, my ideal online library would be a teacher, a guide, an active force rather than a tool

Het onderzoek van Innovative is hier te downloaden (nadat je je gegevens achterlaat) of rechtstreeks via ons blog: “WE LOVE THE LIBRARY, BUT WE LIVE ON THE WEB.”

Geplaatst in toekomst | 1 reactie

Enquête over onderzoekstools nu ook specaal voor Utrechtse onderzoekers

screen-capture-wordpress-background-banner_698

Sinds 10 mei van dit jaar staat een enquête over gebruik van onderzoekstools open voor onderzoekers wereldwijd. Voor onderzoeksinstellingen is er een mogelijkheid om een speciale toegang te krijgen waarmee de instelling de resulterende (geanonimiseerde) gegevens over toolgebruik van haar leden kan krijgen en vergelijken met de wereldwijde resultaten. Ook de Universiteit Utrecht maakt hier nu gebruik van. Alle Utrechtse onderzoekers en studenten die onderzoek doen kunnen de enquête invullen via dit adres:

https://innoscholcomm.typeform.com/to/Csvr7b?source=5r9u3u

In de tweede week van juli krijgen alle Utrechtse onderzoekers een mail met een oproep om mee te doen.

de enquête is grotendeel grafisch

de enquête is grotendeels grafisch

Het onderzoek levert gegevens op die nuttig zijn voor de onderzoekers zelf, maar ook voor makers van tools, funders, uitgevers, IT, research support en bibliotheken. Meer inhoudelijke informatie en voorlopige resultaten van de enquête staan op de website van het onderzoek:

http://101innovations.wordpress.com

Dit is ook het adres dat onderzoekers buiten de Universiteit Utrecht kunnen gebruiken om deel te nemen aan de enquête.

Het onderzoek wordt geleid door Bianca Kramer en Jeroen Bosman van de Universiteitbibliotheek Utrecht.

Geplaatst in I&M2.0 | Een reactie plaatsen

Congres International Musicological Society/International Association of Music Libraries

Van 21 t.m. 27 juni was ik op het congres Music Research in the Digital Age van de International Musicological Society en de International Association  of Music Libraries in New York. Het was een  interessant en veelzijdig congres, en ik dacht: misschien aardig om wat te vertellen over het er anno 2015 aan toe gaat in een niet zo grote maar wel zeer levendige en internationale geesteswetenschappelijke discipline. Er waren ca. 400 deelnemers uit alle werelddelen, die konden kiezen uit ca. 100 sessies over een breed pakket van onderwerpen. Wat het aspect Digital Musicology betreft: vele aspecten van het digitale wetenschapsbedrijf passeerden de revue, steeds aan de hand van concrete toepassingen. Ik noem er een aantal:  de rol die informele informatiebronnen als Wikipedia en Facebook zouden kunnen of moeten spelen; de rol van linked open data; gedigitaliseerde oudere literatuur als goudmijn van informatie; Big data en de mogelijkheden en beperkingen van text mining; databases in allerlei soorten en maten, b.v. als hulpmiddel bij stilistisch onderzoek; muziek en Virtual Spaces; muziekakoestiek en metingen aan de hand van schaalmodellen; copyright in het digitale tijdperk; web archiving; e-journals;  informatievaardigheden; en nog veel meer. Ik pik er een paar dingen uit.

De vraag hoe Wikipedia, Facebook e.d. zich verhouden of zouden moeten verhouden tot onze “officiële” databases en naslagwerken kwam prominent aan de orde in meerdere sessies. Men neigde er over het algemeen toe om allianties met de wikipedians aan te gaan, omdat de inbreng van deze gepassioneerde liefhebbers belangrijk werd geacht én omdat daardoor het maatschappelijk draagvlak voor het vakgebied wordt versterkt. Interessant verschil in beleving overigens: de chief editor van Grove Music Online, Anna Santella, stond hier veel positiever tegenover dan Laurenz Luetteken, de hoofdredacteur van de grote Duitse muziekencyclopedie Die Musik in Geschichte und Gegenwart. De fulltext database RIPM (die honderden muziektijdschriften uit de periode 1800-1940 bevat) gaat twintig gratis accounts geven aan `senior Wikipedians`.

Linked open data speelden een rol in verschillende presentaties. Ik zal zeker niet beweren dat ik dat concept tot in de finesses doorgrond maar wat me wel is bijgebleven is het volgende: wanneer url’s op een correcte manier geformuleerd zijn geeft dat ongelooflijk veel mogelijkheden om informatie boven water te halen. Concreet kwam dit o.a. aan de orde in een presentatie over OCR  van zgn. luittabulaturen (een speciale vorm van muzieknotatie van voor 1700) waarbij nieuwe mogelijkheden voor het opsporen van bronnen en het cureren van data werden besproken: “data can be curated elsewhere”, je hoeft als onderzoeker misschien niet alles zelf te doen. Een soortgelijke aanpak viel ook in andere presentaties te beluisteren.

Hierbij sluit een heel ander concreet aspect aan, nl.: de goudmijn aan gedigitaliseerde oudere literatuur die zo langzamerhand op Internet beschikbaar is. Dit aspect werd heel tastbaar in de presentatie “Digital prosopography of Renaissance musicians”. Een prosopografische studie beschrijft “….gemeenschappelijke kenmerken van een bepaalde maatschappelijke groep mensen, zoals beroep, inkomen, sociale afkomst, stand, woonplaats. In contrast met de biografie doelt zij dus op een collectiviteit van personen.”(jawel, definitie uit Wikipedia!) Ofwel, zoals de onderzoekster zei: “Prosopography is like recreating Facebook in the past.” Zij haalde karrevrachten informatie op uit oudere, digitaal beschikbare lexica etc.

De mogelijkheden en beperkingen van text mining kwamen o.a. aan de orde in een interessante presentatie over The NBC Music Appreciation Hour,een serie radioprogramma’s waarmee van 1928 tot 1942 geprobeerd werd het Amerikaanse publiek op te voeden tot consument van klassieke muziek. Bij die radioprogramma’s verschenen begeleidende boeken, die de onderzoekster (Robin Preiss) grotendeels digitaal kon terugvinden via Project Gutenberg en The Internet Archive. Text mining (dat wilde in dit geval zeggen: woordfrequentie-analyses) leidde tot interessante resultaten over ontwikkkeling van smaak, attitude etc., maar… het was een buitengewoon bewerkelijk proces: 90% van het werk bestond uit het “schoonmaken” en  vervolgens converteren naar plain text van het digitale materiaal. En: text mining vervangt close reading niet, je moet het een én het ander doen.

Er waren ook veel presentaties over prachtige databases. Ik noem er een paar: een database over muziekinstrumenten uit het oude Egypte, op basis waarvan het over een aantal musea verspreide bestand op een geheel nieuwe manier geanalyseerd kan worden; een database over muziek van de topcomponist Josquin des Prez (ca. 1450-1521) en zijn tijdgenoten, waarmee geheel nieuw stilistisch onderzoek mogelijk is; een nieuwe database van jazztijdschriften, waarmee receptieonderzoek mogelijk wordt; databases waarin voor het eerst Chileense en Braziliaanse populaire muziek in kaart gebracht wordt; een database over de International Society of Contemporary Music (de belangrijkste organisatie van componisten uit de 20e en 21e eeuw).

In de sessie Virtual Spaces hield onze eigen Emile Wennekes een interessant betoog over de rol van muziek in Second Life. Het was een vervolg op een onderzoek dat hij had gehouden in 2008, een soort voortgangsverslag dus.

Er waren drie presentaties over “information literacy”. Verschillende aspecten die ook bij ons hoog aangeschreven staan passeerden de revue, zoals het belang van interactiviteit en het idee van de “flipped classroom”(laat de studenten van tevoren opdrachten maken, eventueel nadat ze een instructievideo hebben bekeken; bespreek het resultaat tijdens de instructie.) Interessant was een presentatie over joinprof.com. Dit is een systeem waarmee er tijdens de instructie een voortdurende real time-connection is tussen de studenten en de docent, en waarmee studenten tijdens de instructie ook anoniem vragen kunnen stellen. Ook was er een enigszins verrassende presentatie over het zoekgedrag van studenten: de spreker had o.a. geobserveerd dat studenten meestal begonnen met de opties op de bibliotheekhomepage (“library tools”, dus niet in Google en wikipedia) maar dat ze overstapten op Google zodra ze de library tool niet meer begrepen c.q. daarin vastliepen. Algemene conclusies van deze presentatie: we need something that works in such a way that the first array of things shown is good enough; we need to continue trying to understand what our patrons are doing, but the library is not shunned by our patrons; comfort is belangrijk, als men al in de  bibliotheek is haalt men het materiaal daar, als men elders is gaat men naar internet. En nog een specifieke muziek-observatie: digitale partituren (b.v. IMSLP) en papieren partituren zijn beide populair.

En zo was er nog veel meer, inclusief een prima presentatie door de redacteur van het nieuwe e-journal Musicologica austriaca, en een zeer hardcore muziektheoretische sessie over computationele analysemethoden voor de muziek van Igor Stravinsky, Arnold Schoenberg, Alban Berg en Anton von Webern. Die laatste sessie werd verzorgd door een paar wereldberoemde muziektheoretici: erg mooi om die mensen een keer in levenden lijve te hebben gehoord en gezien.

Tenslotte: Frans Wiering (UU) presenteerde de resultaten van zijn onderzoek What do musicologists do all day? Dat onderzoek ging over de vraag in hoeverre muziekwetenschappers de moderne digitale mogelijkheden gebruiken. Ik heb hem helaas gemist omdat ik door een misverstand in een verkeerde zaal terechtkwam. Niet verrassend maar wel zeer informatief: er is zowel scepsis als enthousiasme over de nieuwe mogelijkheden. Zie http://www.staff.science.uu.nl/~wieri103/presentations/WDMDAD-IAML-IMS.pdf

Ik laat het hierbij. Het was een veelzijdig congres, maar er waren zeker ook witte vlekken (b.v. muziekcognitie en alles wat daarmee samenhangt; popmuziek.) Ook in dit vak zijn de circuits soms wat gescheiden. Maar het was zeer inspirerend om te zien hoe springlevend het vak is en hoe gepassioneerd het wordt beoefend met oude en nieuwe technieken.  Voor meer informatie over het congres: www.iaml.info

Joost van Gemert

Geplaatst in I&M2.0 | 2 reacties

OAI9 : CERN Workshop on Innovations in Scholarly Communications

Elke twee jaar is er in Genève een congres over “scholarly communications”. Dit jaar zijn Jeroen Bosman, Bianca Kramer en Marina Muilwijk daarheen geweest. Deze post bevat het verslag van Marina.

Voorafgaand aan het congres zelf was er een dag voor de DSpace User Group. Ik heb daar iets verteld over hoe onze DSpace samenwerkt met Pure, Narcis en Google Scholar. Een paar aardige dingen die ik daar leerde waren How open is it, om op basis van een DOI te kijken wat nu eigenlijk de licentie van een artikel is voor de eindgebruiker; en de tip om voor je statistieken vooral meerdere bronnen te gebruiken (bijvoorbeeld de statistieken van DSpace zelf plus Google Analytics), omdat ze geen van alle exacte cijfers kunnen leveren. Verder was er de presentatie van de plannen voor nieuwe features van DSpace, met de smeekbede aan instituten om toch vooral ontwikkelaars te leveren. Ze willen vanaf volgend jaar in sprints van één tot twee weken gaan werken, dus de tijdsinvestering is overzichtelijk; en Java-kennis is niet langer vereist.

Het gaat te ver om hier over alle presentaties van het congres te schrijven. Daarom hieronder alleen de dingen die mij het meest opvielen. Daarbij moet ik opmerken dat ik vooral aantekeningen heb gemaakt bij de meer technische sessies, dus ik hoop dat Bianca en Jeroen aanvullingen kunnen geven over de rest. De slides en de video-opnames van alles presentaties zijn te vinden via http://indico.cern.ch/event/332370/timetable/.

In de keynote gaf Michael Nielsen voorbeelden van wat er nog meer kan, behalve een gewoon artikel. Bijvoorbeeld een interactief essay, met daarin code die je zelf kunt uitvoeren en aanpassen. Zo kun je zien hoe een model zich gedraagt als je een parameter verandert. Een andere mogelijkheid is een grafisch model: pas de grafiek aan en kijk wat dat met je resultaten doet. Helaas willen uitgevers dit soort publicaties nog niet opnemen in hun tijdschriften.

‘s Middags was de technische sessie, met twee presentaties over Linked Data en één over “reference rot”. Als eerste werd het idee van Linked Data Fragments gepresenteerd: een sneller en stabieler alternatief voor SPARQL endpoints: Linked Data Fragments. Daarna werd uitleg gegeven over “trusty URIs”: een manier om zeker te weten dat de (nano)publicatie of dataset waarnaar je een verwijzing hebt, sindsdien niet veranderd is: Trusty URI. Daaraan verwant is het probleem van “reference rot”: in een publicatie staat een referentie met een URL, maar die URL blijkt niet meer te bestaan of naar iets anders te verwijzen dan wat de auteur bedoelde. De oplossing die wordt voorgesteld is om je publicaties altijd van een (machineleesbare) datum te voorzien, elke online bron die je gebruikt in een web-archief te zetten als ze daar nog niet staan en de link in je publicatie te voorzien van de informatie over het archief plus de datum (zie http://www.socialsciencespace.com/2015/02/the-digital-scholar-reference-rot-and-link-decorations/ voor uitleg enhttp://journals.plos.org/plosone/article?id=10.1371/journal.pone.0115253 voor details).

Op de tweede dag vielen mij vooral twee posters op, beiden over het gebruik van repositories voor andere dingen dan alleen artikelen. Voor de learning objects, foto’s en video’s op http://digitalcollections.qut.edu.au hebben ze de metadata door inhoudsdeskundigen laten invoeren in Excel en daarna ingelezen in het repository. Op die manier kregen ze goede metadata zonder dat de inhoudsdeskundigen de werking van de repository software hoefden te leren. Het TIB/AV Portal (http://av.getinfo.de) gaat nog een stukje verder. Naast de normale invoer van metadata, worden de video’s ook door beeldherkennings- en transcriptie-software gehaald, en de transcriptie door een textmining programma. Op deze manier worden geautomatiseerd metadata toegekend aan videofragmenten. Elk fragment krijgt bovendien een eigen DOI, zodat er makkelijk naar verwezen kan worden.

Op de laatste dag ging het over  “Institution as Publisher”, iets waar wij natuurlijk al ruime ervaring mee hebben, en over  “Digital curation and preservation of large and complex scientific objects”. De belangrijkste reden om je onderzoeksdata te bewaren is hergebruik. Maar dat blijkt in praktijk moeilijk, omdat je niet exact weet hoe de data verzameld en eventueel bewerkt zijn. Natuurlijk staat in de bijbehorende publicatie wel “we gebruikten apparaat X om de meting te doen en software Y voor beeldbewerking”. Maar het blijkt dat het voor het resultaat significant verschil kan maken of je versie 3.1.1 van software Y hebt gebruikt op Windows, of versie 3.1.0 op een Mac. En zelfs de versie van het apparaat kan verschil maken.  Dus zijn mensen bezig met oplossingen te verzinnen waarmee zo precies mogelijk kan worden vastgelegd wat er gebeurt tijdens het hele meet- en analyseproces. Het liefst natuurlijk geheel automatisch, zodat het de onderzoeker geen extra moeite kost.  En daarmee waren we weer terug bij wat er ook al in de keynote was opgemerkt: wetenschappelijke communicatie gaat over meer dan alleen artikelen.

Geplaatst in I&M2.0 | 2 reacties

Van abonnementen naar APC’s [update]

Via de nieuwsbrief OA van de VSNU werd ik geattendeerd op een interessant artikel over de kosten van Open Access afgezet tegen het abonnementenmodel: Disrupting the subscription journals’ business model for the necessary large-scale transformation to open access.

Op basis van verschillende data komen de auteurs tot verschillende inzichten, onder andere:

Insight 1
Under the current subscription system, a figure between EUR 3,800 and 5,000 is already being
paid per research article through library subscription spending.

Insight 2
There is currently already enough money in the system. A large-scale transformation from
subscription to open access publishing is possible without added expense.

Onder het tweede inzicht liggen gegevens van een aantal partijen die de hoogte van daadwerkelijk betaalde APC’s (Article Processing Charges) inventariseren waaruit een bedrag komt dat ver onder 2.000 euro ligt (uitgezonderd hybrid OA journals).

Interessant zijn de gegevens die bij het artikel geleverd worden: Number of Scholarly Articles per Country. Voor een aantal landen berekenen de auteurs hoe de kosten voor APC’s (2.000 euro per artikel) zich zouden verhouden tot de kosten die in die landen nu worden betaald voor toegang via abonnementen. Voor Duitsland, het Verenigd Koninkrijk en Frankrijk vallen die berekeningen (ruim) in het voordeel van de APC’s uit.

Op basis van gegevens uit Web of Science zouden in 2013 24.043 artikelen gepubliceerd zijn met een corresponding author uit Nederland. Bij een gemiddelde prijs van APC’s van 2.000 euro zou dit neerkomen op 48 miljoen euro aan APC’s in Nederland. De hamvraag is dus, hoeveel betalen Nederlandse instellingen nu gezamenlijk aan tijdschriften?

Met de gezamenlijke UKB-bibliotheken gaan we dit bedrag niet halen. Maar ik heb geen idee hoeveel er door andere partijen (Hogescholen, onderzoeksinstellingen, bedrijven) aan abonnementen wordt betaald. Vermoedelijk komen we samen wel boven die 48 miljoen uit, maar volgens mij is de besparing door APC’s veel minder hoog dan in diezelfde berekeningen voor Duitsland, het Verenigd Koninkrijk en Frankrijk.

De voorbeelden beperken zich nu tot west-europese landen. Eén van de gevolgen van het APC-model zou kunnen zijn dat onderzoekers van minder gefortuneerde instellingen/landen niet meer zouden kunnen publiceren. Om een paar landen te noemen: Kroatië zou ruim 5 miljoen euro aan APC’s moeten betalen, Griekenland ruim 15 miljoen euro, Chili ruim 8 miljoen. Hoeveel zijn de bibliotheken in die landen nu kwijt aan abonnementen en valt voor hen de vergelijking ook in het voordeel van de Gold OA uit?

Het artikel laat zien dat er voldoende geld in het systeem zit om een overstap naar Gold OA te maken en het biedt een aanzet om dit door te rekenen naar landelijk en lokaal niveau.

[Update 12 juni 2015]

Op 11 juni was Ralf Schimmer, één van de auteurs, te gast bij de UKB. Een aantal aanvullingen vanuit zijn presentatie en de discussie die daarop volgde:

  • Schimmer presenteerde het abonnementenbudget en APC-budget als corresponderende vaten. Hij verwacht niet het abonnementenbudget volledig zal verdwijnen. Er kunnen tijdschriften/vakgebieden zijn waarbij alle partijen het eens zijn dat het abonnementenbudget wel prima werkt. Dit geldt niet voor de STM en de grote uitgevers, en daarmee voor 80 tot 90% van het geld.
  • Ik vroeg naar het grote verschil tussen de gemiddelde APC-prijs waarmee hij in het onderzoek rekent en de gemiddelde opbrengst van een artikel in het abonnementenmodel. Kunnen we niet verwachten dat uitgevers in een OA model de APC prijzen zullen verhogen zodat hun inkomsten gelijk blijven? Schimmer deelt die angst niet omdat het volgens hem niet gaat om de hoge APC’s, maar om de differentiatie in APC’s. Zelfs binnen het pakket van één uitgever bestaan tijdschriften met hoge en met lage (minder hoge?) APC’s naast elkaar en de wetenschapper kan daarin een keuze maken. Het is daarbij wel essentieel dat de wetenschapper inzicht heeft in die prijzen, ook al willen we hem met de verdere afhandeling zo min mogelijk belasten. Vanuit OA-fondsen kunnen bijvoorbeeld alleen APC’s tot een bepaald niveau of APC’s voor een beperkt aantal diensten vergoed worden. Wie meer wil zal daar zelf aanvullende financiering voor moeten vinden.
  • Kijk op https://github.com/OpenAPC/ voor een dataset over de hoogte van APC’s. Een belangrijke kanttekening bij het berekenen van gemiddelde APC’s is dat de artikelen zonder APC’s (of liever: APC = 0 euro) ook in deze berekening betrokken zouden moeten worden. Die gegevens ontbreken in de dataset?
Geplaatst in Open Access | Een reactie plaatsen

Open Access in UMC Utrecht

Verslag OA meeting voor Science in Transition in UMC Utrecht op 18/3/15 16:00-18.00

Deze door het UMC Utrecht georganiseerde bijeenkomst werd bijgewoond door een klein maar divers gezelschap van 12 personen. Dit zorgde voor een levendige discussie rond de presentaties van de sprekers.

Rinze Benedictus gaf een inleiding waarin hij Science in Transition (SiT) positioneerde. De nieuwe strategie van het UMC heet ConnectingU. Het UMC Utrecht wil de komende vijf jaar een verbinding tot stand brengen met de maatschappij. Benedictus ziet raakvlakken met Open Access (OA). We zouden ons best moeten doen om alles OA aan te bieden. Dát zou volgens hem de beste garantie zijn om die verbinding met de maatschappij tot stand te brengen, maar daar zitten haken en ogen aan. Deze bijeenkomst is bedoeld om dit beter in beeld te krijgen.

Anja Smit, directeur van de Universiteitsbibliotheek Utrecht (die ook het UMC Utrecht bedient), gaf een overzicht van de ontwikkelingen en trends op het gebied van OA, dat als onderwerp nu ook is opgenomen in het SiT position paper en de Wetenschapsvisie. Smit schetst de ‘Golden’ en ‘Green’ OA road, en gaf een overzicht van beschikbare financieringsmogelijkheden voor Gold OA, bv. bij NWO, Horizon2020 en het OA-fonds van de Universiteit Utrecht. Slechts 10% van de UMC publicaties zitten in de UU repository (Green Road). Voor andere vakgebieden (Bètawetenschappen, Diergeneeskunde) ligt dit percentage vele malen hoger. Via het nieuwe PURE kunnen onderzoekers hun publicatiegegevens invoeren, waarbij de Universiteitsbibliotheek gratis de full-tekst upload kan verzorgen, en controleert óf en welke versie is toegestaan. Tenslotte bespreekt Smit de onderhandelingen met de uitgevers over de tijdschriftpakketten (de zgn. ‘big deals’). Er is nu een deal met Springer; de kosten voor OA-publicaties in hybride tijdschriften (waar OA en niet OA artikelen daar elkaar worden aangeboden) betaald worden uit de abonnementsgelden. Met uitgever Elsevier zijn de onderhandelingen opgeschort tot 2016. Onderhandelingen met de uitgevers Wiley, Sage en Oxford University Press lopen nog. In Engeland, waar men in eerste instantie nadrukkelijk inzette op Gold OA, schuift men inmiddels steeds meer naar de green variant Deze laatste variant zien we ook in de landen in Zuid-Europa. De VS loopt in deze hele discussie enigszins achter.

Frank Holstege hoogleraar Molecular Cancer Research, vertelde over activiteiten binnen zijn groep op het gebied van OA en Open Data. Zijn stelling was dat de grootste belemmering voor OA de huidige manier van evaluatie van onderzoek is. Hij verwijst naar DORA (2014 San Francisco Declaration on Research Assessment, getekend door de VSNU maar nog niet door de NFU) waarin gesteld wordt dat onderzoekers vooral beoordeeld moeten worden op de inhoud van hun publicaties, meer dan op publication metrics. Is dit wel haalbaar zolang funding agencies nog met traditionele waarderingsmethoden werken? De NIH (National Institute of Health) heeft al duidelijke stappen in de goede richting gezet op het gebied van evaluatiemethoden: meer experts uit een eenzelfde discipline (dus overleg!), tijd voor inhoudelijke discussie, uitsluitend gebruik van inhoudelijke argumenten, verantwoording van cijfers van commissieleden, de betaling van reviewers en commissieleden etc. Holstege zou ook graag een toename zien in kwalitatief goede OA-tijdschriften.
Daarnaast zouden niet alleen publicaties, maar ook de onderliggende data openbaar gemaakt moeten worden, inclusief protocollen, scripts, software en databaseversies. Dit is goed voor het eigen onderzoek, voor citaties en voor het voor wetenschappelijk proces.

Bianca Kramer, vakspecialist Bèta/ Biomedische Wetenschappen bij de Universiteitsbibliotheek Utrecht, laat in haar presentatie aanvullende manieren zien om de impact van wetenschap te traceren: altmetrics. O.a. in Scopus is te zien hoe vaak een artikel is opgepikt in de media, science blogs en social media: kortom hoe wetenschappelijk nieuws zich verspreid door de maatschappij. Bij PLOS zien we iets dergelijks. Het zijn goede initiatieven naast de traditionele citatiescores, maar veel staat nog in de kinderschoenen. Kramer toont ook enkele nieuwe initiatieven omtrent post-publication peer review: o.a. PubMed Commons en PubPeer, en de nieuwe tool Publons, waar peer review-activiteiten (ook voor tijdschriften) bij elkaar gebracht kunnen worden, waardoor deze kunnen worden meegewogen in de waardering van onderzoeksactiviteiten van een wetenschapper.

Samenvattend: Er is een duidelijke relatie tussen Science in Transition en Open Access. Met de invoering van het nieuwe onderzoek registratiesysteem PURE is er een nieuwe kans om de onderzoekers die hun werk OA willen maken te faciliteren, door een koppeling naar de repository van UU/UMC Utrecht.

Geplaatst in I&M2.0 | Tags: | 1 reactie