- Mar 2021
-
www.scienceguide.nl www.scienceguide.nl
-
het white paper Open For All
Het zou goed zijn om hier ook een link bij te zetten naar het rapport zelf.
-
Uit de resultaten blijkt dat OA-publicaties van hybride tijdschriften van Springer Nature (dus tijdschriften met vrij toegankelijke en betaalde artikelen) ruim vier keer zo vaak worden gedownload in vergelijking met betaalde publicaties. Het gaat daarbij om publicaties met een gold status. Dat betekent dat het werk zonder vergoeding toegankelijk kan wordt gemaakt en onder licentie van creative commons met derden gedeeld mag worden.
De gebruikte definities hier kunnen voor verwarring zorgen:
voor OA publicaties in hybride tijdschriften wordt ook betaald, maar niet door de lezer/via de abonnementsprijs.
'gold status' (wanneer hier wordt verwezen naar het onderscheid gold/green OA) zegt iets over of een artikel via de site van de uitgever OA wordt gemaakt (gold) of via een repository (green).
Dat het artikel zonder vergoeding toegankelijk wordt gemaakt en onder welke licentie, is geen principieel onderscheid tussen gold en green.
-
- Dec 2019
-
www.volkskrant.nl www.volkskrant.nl
-
De systemen die door studenten en docenten gebruikt worden op dit moment zijn al voornamelijk in buitenlandse handen. Waar de rectores nog geen aandacht voor vragen is het expliciete belang van een publieke infrastructuur voor ons hoger onderwijs,
Het zou goed zijn om expliciet te maken waar de punten van zorg zitten en waarom:
- buitenlands vs. Nederlands
- commercieel vs. non-profit
- publiek vs. privaat
- gesloten vs. open
En of het daarbij gaat over:
- eigenaarschap van (meta)data
- gebruik en verwerking van (meta)data
- inzichtelijkheid in hoe data gebruikt/verwerkt worden (open source, open algoritmes)
- toegang geven tot (meta)data (of toegang juist willen inperken)
- verzameling en gebruik van gebruikersdata
- besteding publieke gelden
- wie controle en zeggenschap heeft
En ten slotte kunnen bovenstaande overwegingen verschillend zijn voor:
- (OA) publicaties en bijbehorende metadata
- (niet open) onderzoeksdata
- metadata van onderzoeksdata
- andere (meta)data rond onderzoeksoutput (bv. funding, citaties, andere vormen van impact)
- gebruikersdata
-
Die toegankelijke en veilige infrastructuur
Hierbij wordt verondersteld dat publieke infrastructuur per definitie toegankelijk en veilig is? Het zou goed zijn om duidelijk te stellen wat als voorwaarden worden gezien voor toegankelijkheid en veiligheid (zie ook de variabelen in het 1e comment bovenaan het stuk.
-
de discussie over open science die nu met name over de contacten met de bestaande uitgevers gaat
Deze aanname lijkt me discutabel: 'de discussie over open science' gaat ook nu al over veel meer dan open access - o.a. binnen NPOS (waar o.m KNAW, NWO, VSNU en UKB vertegenwoordigd zijn), binnen Europa en binnen meerdere instellingen gaat het ook expliciet over FAIR en open data, public engagement en erkennen en waarderen.
-
Deze discussie kunnen de universiteiten nu kracht bijzetten omdat er digitale alternatieven zijn
In de onderhandelingen gaat het tot nu toe met name over het beheersbaar maken van kosten voor OA publiceren binnen bestaande tijdschriften. De discussie of tijdschriften an sich nog nodig zijn speelt wel, maar dit wordt voor zover ik weet niet als argument ingezet bij onderhandelingen met uitgevers.
-
Wie onderzoek zelf op internet plaatst
Wat wordt hier bedoeld? Als het om preprints gaat: ook deze worden doorgaans gedeeld op platforms die zorgen voor duurzame archivering en metadata.
-
De uitgever die publicaties categoriseert in tijdschriften en heldere zoektermen toevoegt, en de bibliothecarissen die unieke nummers toewijzen aan een artikel in de catalogus van de bibliotheek zijn niet meer nodig
Dit lijkt enigszins een karikatuur. Zoals boven al gezegd, ook bv. preprint servers zorgen voor duurzam archivering en metadata. Zoekmachines maken gebruik van danwel metadata danwel full-text indexering - en dit geldt evenzo voor 'reguliere' tijdschriftartikelen als voor bv. preprints. En net zo goed voor vrij toegankelijke zoekmachines als voor betaalde zoekmachines die via bibliotheken toegankelijk zijn.
-
No such thing as a free lunch!
Naar mijn idee wordt dit vaak als argument ingebracht , maar zijn er in de praktijk niet veel mensen die dit daadwerkelijk denken. De discussie rond wie er op welke manier waarvoor betaalt is uiteraard een nuttige.
-
Deze vorm van publiceren is afhankelijk van hele goede zoekmachines en op dit moment betekent dat opnieuw de gratis diensten van (Amerikaanse) bedrijven.
Zie boven - vindbaarheid van publicaties is in toenemende mate afhankelijk van zoekmachines, ook voor 'reguliere' tijdschriftartikelen, en ook via betaalde ingangen.
Tegelijkertijd zijn er ook op dit moment al zoeksystemen die niet commercieel zijn en/of niet Amerikaans en/of geen gebruikersdata tracken.
-
Deze bedrijven hebben hiermee ook toegang tot de inhoud van deze teksten en tot metadata
- Toegang tot de full text van publicaties is juist een van de voordelen van OA publicaties (mits onder CC-licentie gedeeld).
- Metadata van publicaties (en onderzoeksdata) worden ook nu al door uitgevers beschikbaar gemaakt via bv. Crossref en DataCite, waardoor ze o.a. voor zoekmachines bruikbaar zijn -> juist dit maakt o.a. niet-commerciele zoekmachines mogelijk.
-
wie zoekt wat en wat is het profiel van deze student of docent
Dit is m.i. een valide punt van aandacht, maar staat dus los van full text van publicaties, metadata van publicaties en onderzoeksdata, en onderzoeksdata zelf.
-
n toenemende mate tot de achterliggende data, van patiënten, proefpersonen of de monitoringsdata van steden of omgeving, die opnieuw met publiek geld verworven zijn
Ook dit is een apart punt, wat te maken heeft met hoe en waar onderzoeksdata gearchiveerd worden, of ze open toegankelijk worden gemaakt en zo, met wat voor licentie.
-
Met dit besef moet het inzicht komen dat we moeten investeren in publieke kennisorganisaties als Surf die not for profit kennis ontwikkelen om digitalisering aan de universiteiten in goede banen te leiden
Waar wordt hier precies om gevraagd? Investeren in kennisontwikkeling, of in ontwikkeling van publieke infrastructuur zelf?
Wat mij betreft is het goed, nuttig en belangrijk als universiteiten nadenken en hun positie bepalen ten aanzien van de kennisinfrastructuur die ze ondersteunen (financieel of 'in kind') en gebruiken, en het belang van publieke infrastructuur daarin. Zelf ontwikkelen van infrastructuur kan daar deel van uitmaken, maar is zeker niet de enige optie.
-
als voortrekker in Europa
Dit wordt vaak genoemd als argument. Hoe wordt die voortrekkersrol in dit geval gezien - als bestaand of als ambitie?
-
- Dec 2018
-
scholarworks.iupui.edu scholarworks.iupui.edu
-
.
Total publishing income from Conservation Biology and Conservation Letters together would be $468,000 (324K+140K) minus what's taken by Wiley.
Compared to the reported publishing income of $678,000 for 2017, that would be min. $200,000 less, reducing the publishing surplus by half from $400,000 to $200,000.
-
,
As a very rough estimate, assuming that publishing income ($678,000 as reported for 2017) is mostly derived from author charges for Conservation Biology (ca. $300,000 as per above), Conservation Letters ( $140,000, see calculation below*) and subscription revenue, all minus what's taken by Wiley:
Depending of what % is taken by Wiley, income from author charges would be 65% or less of total publishing income, and income from subscriptions 35% or more.
(with the acknowledgement that this is comparing 2017 revenue with a sample of 2018 publication data).
*Dec 2018 issue of Conservation Letters contained 17 articles/reviews at $1,850 = $31.450 Extrapolated to a full year, with 20% waived charges: app. $140,000 author charges.
-
.
Using the calculation in the comments above (based on no page charges and waived color charges for OA articles):
The December 2018 issue could have raised more than $65,000 from author charges. If we assume that the December 2018 issue is typical over a year and that 25% of charges are waived, then Conservation Biology raises nearly $300,000 a year (before subscription revenue)
-
f we assume nowaiverswere grantedfor December 2018 issue, the page charges the would have generated $37,950, the color charges $28,000, and the APCs $21,000, for a total of $86,950 paid by authors.
Working from the information that page charges are not levied for OA articles (see previous comment):
page charges would have generated $26,550, the color charges $28,000, and the APCs $21,000, for a total of $75,550 paid by authors
If it is assumed that the fee for color charges is requested to be waived for OA articles, as is allowed by journal policies:
page charges would have generated $26,550, the color charges $17,500, and the APCs $21,000, for a total of $65,050 paid by authors
(7 OA articles with a total of 75 pages, of which 15 color pages)
-
fee for color pages is$700
Interestingly, authors can decide to only have color in the online publication, and b/w in the print publication, in which case there are no color charges. (https://onlinelibrary.wiley.com/page/journal/15231739/homepage/forauthors.html#Charges)
It would be interesting to see how many authors choose this option.
-
Pages charges are assessed at the rate of $150 per page with provision for reductions or waivers if the author does not have the means to pay at this rate
There are also no page charges for open access papers (https://onlinelibrary.wiley.com/page/journal/15231739/homepage/forauthors.html#Charges)
-
-
openandreproducibleresearch.wordpress.com openandreproducibleresearch.wordpress.com
-
will all cOAlition S members
and hopefully to everyone, as open data.
-
- Oct 2018
-
www.fairopenaccess.org www.fairopenaccess.org
-
v
Perhaps even more important/pressing, for those cases where it is unambiguously defined as posing a problem for Plan S implementation (eg Germany) it would be important to make explicit what this would mean for compliance with plan S (e.g. if the EU signs on, what this would mean for grantees from Germany).
Regarding AAUP, whether or not the wording 'full freedom in research and in the publication of the results' encompasses choice of publication venue is up for debate...
-
,
citation needed ;-)
-
.
On the other hand, it could be argued that this would encourage eventual flipping (soft-flipping) of journals (if submissions to the subscription journal would taper off) and thus would ease the transition. One condition would be the open journal would be open to all authors (so no 'Nature Plan S') :-)
-
Support and encourage the application of DORA and other declarations on good research evaluation practice no later than 2020.
And also apply these practices as funders -fully in line with the commitment (in the preamble of planS ) of the coalition funders to 'fundamentally revise the incentive and reward system of science" (starting from DORA)
-
FOAA cost transparency prop
Although it should be noted that the proposed APC-cap in TTOA is considerably higher (not exceeding €1400 on average) than that set in the FOAA principles itself (max $1000)
-
build cost transparency into t
Fully seconded. This is very important.
-
The implementation phase of this principle should therefore not only focus on publication fees, but also support no-(author)-fee initiatives.
There is nothing in Plan S that focuses solely on publication fees, and the preamble specifically states no preference for any given business model (excluding hybrid). To what extent this approach will hold in the implementation is indeed an open question yet.
-
,
Important point: selectively favouring existing solutions might in the longer run inhibit innovation and potential for larger change. So perhaps there should be a balance between supporting existing and new initiatives?
-
excellent reputation. Establishing the quality
Would be good to qualify and specify this, e.g. is this meant in terms of journal quality in technical/objective terms (as described above), or also as reputation/quality with authors in terms of trust (in infrastructure and editiorial board), reach and (perceived) quality of papers published previously?
-
technical infrastructural criteria and quality of service criteria: editorial responsiveness, added value of peer review, language and copy editing, indexing, preservation
Additional criteria (with some overlap): TOP guidelines https://cos.io/our-services/top-guidelines/ …, open peer review, open licenses, platform stability, machine readability, XML. configurable papers, reader side formatting, diversity, commenting, multiple language abstracts (cf https://twitter.com/jeroenbosman/status/1053207440999751680)
-
Evaluating research quality at the journallevel
Agreed, but I think the issue here is quality of the platform/journal, not quality of the published research itself.
-
.
It's not stated that this is to be developed from scratch, and could build on DOAJ as well, possibly providing funds to increase its capacity?
-
, some publishers allow authors to “keep” their copyright while demanding that authors sign over all exclusive ri
I think this is excluded by the phrase 'with no restrictions', but clarification would indeed be welcome.
-
.
While not black and white, this is a really important point that deserves ample consideration, discussion and commitment.
-
this might incentivize publishers to hasten the transition of their journals to full gold OA
I would be really interested to learn a bit more detail on the reasoning behind this.
-
Alternatively, Plan S can choose to focus on articles and reports, but make it explicit that data have to be freely accessible in the context of Open Science.
I would support the latter, because it emphasizes the importance of the issue without complicating implementation of plan S by extending it to data (with different infrastructure and license issues). But that's more from a practical then from a conceptual view on research outputs, and may be too shortsighted :-)
-
-
-
establish a European Open Science Cloud, which will make eventually access to data, data sharing, and data re-use possible.
This really is an aside here, but if this implies that any future data/data services for a future monitor should all/only be coming from EOSC that would be a worrying limitation in itself.
-
It is not the intention to provide the ultimate Monitor and a research assessment tool, but solely a tool which helps us toassess how open science practices evolve and provide insights on how we could possibly foster such open science practices with public policy
Even if a monitoring tool is not set out to be used as a research assessment tool, chances are it will be used as such, either directly or by insititutions emulating or modeling (parts of) the monitor for their own monitoring activities. Therefore, the EC could be considered to have a responsibility to provide an as equitable and transparant instrument as possible.
-
the evaluation is based solely on the information provided in the submitted tender
Unless I am reading this the wrong way, does this statement, in the context of this and other answers, mean that any COI or other problem that is not mentioned in the tender is not included in the evaluation, and if pointed out later is dismissed because it was not included in the tender and thus not part of the evaluation? That seems circular reasoning which leaves no ground for appeal on such reasons?
-
Art. II.10.2 of the Contrac
This refers to a document (apparently the contract itself) that is, to my knowledge, not publicly available.
It would be very helpful if the Commission could point to the location of this document, if it is indeed publicly available.
-
ave been identified in the tender, as requested in the tender specifications and made known to the European Commission
This raises several questions. Since per the contract award notification, the share of work allocated to the subcontractor was estimated to be 10%, the reason the subcontractor(s?) were identified in the tender 'as requested' must be that their capacity was necessary to fullfil the selection criteria? IF that was the case, the question is then why their identity did not need to be revealed to the public in the tender award notification?
-
and its drivers
As an aside, it is as of yet unclear if and how the monitor project will address this issue, and (again) what the role of the subcontractor will be in realizing that aspect of the monitor.
-
There will be no exclusive dependence on a single subcontractor the consortium
It is still unclear what this means in the current implementation, with Elsevier being the only subcontractor that we know of, and many current indicators solely depending on Elsevier data sources.
-
The Monitor should be seen as a collaborative initiative.
As of today (Oct 3) there has been no response given to the individual comments, and how they will be dealt with.
-
the Monitor is one of the various ‘tools’ available to guide us how to promote and incentivise Open Science. The Commission never takes its decisions on a single tool such as the Open Science Monitor
This is irrelevant to the question at hand.
-
The consortium is neither fully dependent on Elsevier, nor does Elsevier determine which indicators the Monitor bases itself on.
This is still the crux: at the moment, the consortium does rely fully on Elsevier for a large part of the current indicators (pending any future decisions which are unknown as of yet), and the role of Elsevier in determining the indicators and/or other aspects of the monitor is not document anywhere that is publicly accessible.
-
Elsevier as a subcontractor provides in this context only a service to the contractor and has therefore no authorityto decide on the construction of the Monitor
While this reply answers the question on who is ultimately responsible (the consortium as contractors), it does not rule out an undue role of E in affecting those decisions, nor does it provide the requested transparancy on what the role of the subcontractor will be.
-
subcontractors (including Elsevier)
Apparently there are more subcontractors, whose capacity is each deemed to be necessary to fullfil the selection criterio of the tender? (see this comment: https://hyp.is/ArDG3scjEeiKGKvmCp3cqQ/docdrop.org/static/drop-pdf/Annex-to-letter-to-Jon-Tennant-1--BbPfR)
Who are they?
-
Therefore, the evaluation report of the public procurement procedure can be requested in accordance with the rules and procedures set out in this Regulation.
This is an option that might be worth considering.
-
- Jul 2018
-
mfr.osf.io mfr.osf.io
-
Author affiliations
One more test annotating OSF preprints with Hypothesis
-
- May 2018
-
www.makingspeechestalk.com www.makingspeechestalk.com
-
I originally made comments through Hypothes,is partly because the commenting system on the website had some problems. These are now solved. To keep all comments in one place for the organizers, all copies below are now also entered as copies in the website commenting system. For transparancy and preservation, I am leaving the Hypothes.is comments as well.
-
Number of scientific projects on Github
Number of GitHub projects archived on Zenodo
-
Number of code projects with DOI
Software citations in DataCite
-
Please add here trends not currently captured above, and suggest possible indicators and sources for them.
Only include indicators that are themselves open, so data can be reused and results can be reproduced
-
Please add here trends not currently captured above, and suggest possible indicators and sources for them.
- preregistrations (OSF, clinicaltrials.gov, aspredicted.org)
- journals accepting preregistered reports - journals practicing open peer review (names published, reports published)
- institutions with open science aspects included in T&P policies
- institutions and publishers that are DORA signatories
- publishers/journals that do not advertise impact factor on journal or article webpages
- journals accepting preprints
- preprints published (Crossref, DataCite (both with caveats)
- journals being transparant about breakdown of APC cost [to be continued]
-
% of journals with open code policy*
additional indicator: number of publishers/journals that have adopted the TOP Guidelines (including the level of adoption actual implementation where possible) Source: https://cos.io/our-services/top-guidelines/
-
Number of Journals with policies on data sharing* (Source: Vasilevsky et al, 2017)
additional indicator: number of publishers/journals that have adopted the TOP Guidelines (including the level of adoption actual implementation where possible) Source: https://cos.io/our-services/top-guidelines/
-
- Mar 2018
-
en.wikipedia.org en.wikipedia.org
-
this practice
test annotation - for troubleshooting
-
- Feb 2018
-
www.vsnu.nl www.vsnu.nl
-
De VSNU heeft een officieel reactieformulier opgesteld voor opmerkingen over deze conceptversie: http://www.vsnu.nl/publieke-consultatie-nederlandse-gedragscode-wetenschappelijke-integriteit.html
(zie ook: http://www.vsnu.nl/publieke-consultatie-nederlandse-gedragscode-wetenschappelijke-integriteit.html voor meer informatie over de consultatieronde).
Wie daarnaast haar/zijn reactie(s) ook openbaar toegankelijk wil maken, kan ze ook hier plaatsen via Hypothes.is.
(NB.Dit is een open beschikbare web-annotatietool, en geen initiatief van VSNU of een van de andere betrokken organisaties)
Reacties via Hypothes.is zijn onderdeel van het publiek domein (CC0).
-
Dezeconceptversieis bestemd voor consultatie.
De VSNU heeft een officieel reactieformulier opgesteld voor opmerkingen over deze conceptversie: http://www.vsnu.nl/publieke-consultatie-nederlandse-gedragscode-wetenschappelijke-integriteit.html
(zie ook: http://www.vsnu.nl/publieke-consultatie-nederlandse-gedragscode-wetenschappelijke-integriteit.html voor meer informatie over de consultatieronde).
Wie daarnaast haar/zijn reactie(s) ook openbaar toegankelijk wil maken, kan ze ook hier plaatsen via Hypothes.is.
(NB.Dit is een open beschikbare web-annotatietool, en geen initiatief van VSNU of een van de andere betrokken organisaties)
Reacties via Hypothes.is zijn onderdeel van het publiek domein (CC0).
-
- Oct 2017
-
www.force11.org www.force11.org
-
Tweets
tweets do have an identifier
-
Software tools
(you've probably discussed this at length...) should these be together? Or should the tools themselves be under entity (with their code being an object)?
-
Research objects
- research proposals
- preregistrations
- reviews
- comments
- translations
- single observations
-
RRID
for publishers? (I prob. should look into RRID more)
-
Organizations
GRID ?
-
- Sep 2017
-
www.elsevier.com www.elsevier.comBasel, 32
-
the voice of scholarly publishing
This is catchy-sounding, but STM represents one quite specific stakeholder group in scholarly publishing, and there are many other 'voices'.
-
including any and all metadata
Not clear if this refers to 'modification' or 'extraction'. If the latter, that will be an interesting aspect in and of itself.
-
-
Local file Local file
-
TheScholarlyCommons
You can annotate the pdf in Chrome with Hypothes.is (see https://web.hypothes.is/blog/annotating-pdfs-without-urls/)
-