Jenseits von Infrastruktur. Neue Aufgabengebiete für Bibliotheken in der akademischen Publikationslandschaft

We built much of the infrastructure to publish academic content digitally and in open access. What are the next steps?

Dieser Post ging aus einem Vortrag für die Jahresversammlung der AG Informationskompetenz Schweiz hervor, die unter dem Titel “Publikationsdienste in Bibliotheken – was, wann, für wen?” am 25. September 2017 in Bern stattfand.

Ich habe das große Glück, dass ich seit einigen Jahren als Chef vom Dienst und Mädchen für alles im Publikationsbüro des Heidelberger Exzellenzclusters Asien und Europa direkt an der Schnittstelle zwischen Autoren, Technik, Bibliothek, Open Access und Verlagen sitze und somit einen guten Eindruck davon bekomme, welche Herausforderungen und Möglichkeiten sich für alle Beteiligten in der sich rapide ändernden wissenschaftlichen Kommunikationslandschaft ergeben.
Die meisten Fragen, die an mich gerichtet werden, haben entweder mit akademischem Schreiben auf Englisch zu tun (was ich seit vielen Jahre unterrichte) oder sie betreffen unsere Publikationsinstrumente, die wir seit 2009 am Cluster „Asien und Europa“ aufgebaut haben: unsere elektronische Zeitschrift Transcultural Studies, unsere Buchserie bei Springer, die seit 2010 erscheint, und eine neue Open Access Gold Buchserie, die wir im 2015 gegründeten Universitätsverlag heiUP publizieren. Während ersteres ein klassisches Beispiel ist für eine Kooperation von UB und Wissenschaftlern, die eine neue Zeitschrift auf OJS auflegen möchten, suchten wir für die erste Buchserie von Anfang an eine flexible Open Access Lösung mit einem renommierten Verlagshaus.
Wir entschieden uns für Springer, denn 2010 war dieser Verlag (wie in mancher Hinsicht bis heute) unter den führenden was Open Access betraf. Der Weg den wir  vereinbarten (dies war noch einige Jahre vor Springer Open anlief) erlaubt es uns die Bücher nach fünf bzw. vier Jahren Embargozeit als PDFs auf unserer Webseite zum Download freizugeben. Das ist eine eher ungewöhnliche Vereinbarung, die so vermutlich auch nicht ewig weiterlaufen wird, aber es erlaubt uns die Inhalte unserer Buchprojekte noch innerhalb der Laufzeit frei zugänglich zu machen.
Das dritte Publikationsinstrument entstand vor drei Jahren im Zuge eines Pilotprojekts, das die bereits angesprochene Gründung des Open Access Verlages heiUP unterfütterte: eine zweite Buchserie, diesmal komplett im Open Access Gold. Aufbauend auf die Arbeitsabläufe, Kooperationen und Erfahrungswerte, die wir in der Entwicklung und Produktion des E-Journals und der Springer Serie gesammelt hatten, wagten wir in einer engen Zusammenarbeit mit der Uni Bibliothek den Schritt in die Produktion von Open Access Gold Büchern vor Ort. Wir haben es bei diesem Projekt nicht nur geschafft Open Access Bücher ins Netz zu stellen und einen Universitätsverlag zu gründen, sondern auch zur Infrastruktur des Publikationsprozesses beizutragen: zum einen durch die Entwicklung eines XML-basierten Produktionsprozesses und zum anderen durch eine innovative Darstellung der HTMLs. Die Ergebnisse sind Open Source, das Projekt ist abgeschlossen, die Buchserie ist angelaufen, der Verlag ist gegründet und auf das zweidimensionale Interface bin ich besonders stolz.

Nun gibt es ja die weitläufige Vorstellung: if you build it they will come und wenn man sich die Bauwut betrachtet, mit der wir und zahlreiche andere findige Leute in den letzten Jahren digitale Instrumente und Werkzeuge rund um die akademische Kommunikation geschaffen haben, dann sollte man meinen, dass die verschiedenen Kommunikationsabläufe jetzt – weil leicht zu handhaben – akzeptiert und weit verbreitet sein müssten. Die Wirklichkeit sieht aber nach wie vor anders aus.

Es ist trotz aller Entwicklungen immer noch so, dass viele Wissenschaftler unengagiert und bisweilen sogar uninformiert sind über die Möglichkeiten, die ihnen offenstehen und über die Herausforderungen, die sie meistern müssen um international konkurrieren zu können. Dazu gehören Open Access und die Nutzung digitaler Werkzeuge ebenso, wie die nicht unerhebliche Hürde des Schreibens in einer anderen Sprache für einen Publikationsmarkt mit fremden Gepflogenheiten. VIelen Wissenschaftlern ist einfach nicht bekannt, was in der akademischen Kommunikationslandschaft passiert, welche Mechanismen dort zugange sind und was mit den Inhalten geschieht, die dort abgebildet werden.

Das hat verschiedene Gründe: Der wichtigste Faktor ist nach wie vor das Prestige-Gefüge in der Wissenschaft, aber auch der Zeitmangel spielt eine Rolle und vor allen Dingen der Mangel an Kommunikation – nicht nur was die Überzeugungsarbeit zum Publizieren im Open Access betrifft, sondern auch die Wahrung der eigenen Interessen. Gerade Jungforscher haben oftmals keine Ahnung was sie in Vertragsverhandlungen beachten sollten; es geht eher darum in einem relativ namhaften Verlag zu veröffentlichen, egal wie und zu welchen Konditionen, damit die für die nächste Bewerbung wichtige Zeile auf dem Lebenslauf steht.

Quelle: https://www.sciencemag.org/news/2016/04/whos-downloading-pirated-papers-everyone

Das Ignorieren der Umstände, die Forschungskommunikation ermöglichen, fängt jedoch schon viel früher im wissenschaftlichen Kreislauf an, man denke zum Beispiel an Sci Hub.  Die Zugriffszahlen sind enorm, dabei sind sich viele im Wissenschaftsbetrieb nicht darüber im Klaren, wie prekär dieser „schwarze Open Access“ ist. Die politische Situation dieses Guerilla-Unterfangens ist alles andere als einfach und damit gibt es so gut wie keine Garantie auf Zugriff, Nachhaltigkeit, oder Langzeitarchivierung. Das ist allerdings zweitrangig, denn – egal wie fatalistisch es sein mag – es geht den Usern vor allem darum einfach und schnell auf Material zugreifen zu können.

Der Wandel der Kommunikationslandschaft und die Rolle der Bibliotheken

Tom Friedman Up in the Air (2009-2010), Tom Friedman Studio, CC-BY-SA

Es wäre aber völlig falsch, das Problem allein bei den Forschern zu suchen; es wurzelt nämlich viel tiefer. Der enorme Wandel in der wissenschaftlichen Kommunikation betrifft alle, die in diesem Metier zugange sind – ob sie dies nun wollen oder nicht. Dabei ist es durch die schnelle Veränderung keinem der Beteiligten möglich, eine auch nur mittelfristige Strategie festzulegen. Waren z.B. noch vor zwei, drei Jahren die großen Verlagshäuser damit beschäftigt eine Open Access Strategie zu entwickeln, oder im Fall der ganz Tüchtigen, eine Open Access Strategie festzuzurren, so sehen wir heute wie sich große Häuser wegbewegen von den Erstpublikationen und sich neu fokussieren auf Infrastrukturen und Daten.

Wir befinden uns also in einem dynamischen System, in dem sich alle Vorzeichen und Annahmen immer wieder ändern. Trotzdem kann man sagen, dass Open Access mittlerweile soweit ist, dass viele infrastrukturelle Anforderungen überwunden sind: es gibt viele technische Instrumente, mit denen man die verschiedensten Publikations- und Kommunikationsprozesse bewerkstelligen kann. Es geht jetzt darum, Verbindungen zu schaffen zwischen Technik, Fachcommunities, Förderungseinrichtungen und der weiteren Gesellschaft. Kurzum, es ist wert einen Versuch der Stabilisierung zu starten. Und dieser Versuch geht am sinnvollsten von den Bibliotheken aus.

Wollen sie jedoch nicht nur Knotenpunkt der akademischen Informationsverwaltung sein, sondern zum Fanal für alle Beteiligten in der Wissensproduktion avancieren, dann müssen Bibliotheken zunächst zwei Aufgabengebiete abdecken. Beide liegen jenseits der Infrastruktur: es gilt kluge Angebote zu entwickeln, die die Entwicklungen in den Campus hineintragen und eine durchschlagende Kommunikationsstrategie, die das ermöglicht. Man sieht bereits  Bibliotheken, die diesen Weg beschreiten. Ein Beispiel ist die Anpassung der Personalstrategie, wie man an folgenden Stellenausschreibungen sieht.

Personelle Veränderungen. SFU Vancouver Stellenausschreibung vom August 2017

Personelle Veränderungen. SUB Göttingen Stellenausschreibung vom September 2017

Personelle Veränderungen. TIB Hannover Stellenausschreibung September 2017

Angebote wie diese sind wichtig. Allerdings reichen sie nicht wirklich aus, um den Wandel zu ankern. Aus der Fragmentierung der Wissenschaftslandschaft sind nämlich große Probleme in der Kommunikation und der Kollaboration erwachsen. Wir arbeiten, gerade in Deutschland, in einer Struktur, die oftmals Brückenschläge und Verknüpfungen erschwert, gerade wenn es um die Autonomie in der Beurteilung, Erstellung und Bewertung von Inhalten geht. Ein Beispiel: als wir vor einigen Jahren einen Schreibservice in Kooperation mit der Graduiertenakademie für auf englisch verfasste Dissertationen ins Leben riefen, bekamen wir unerwartet starken Gegenwind von einem Professor aus dem STEM Bereich, der sich regelrecht empörte über die Anmaßung unsererseits, auf irgendeine Art in die Inhalte seiner StudentInnen eingreifen zu wollen.

Petrus Spronk, Architectural Fragments, Photograph by Alan Levine, CC-BY-SA

Mit dem Angebot alleine ist es also nicht getan: Kurse, Dienste und die dazugehörigen Stellen sind nur ein logischer zweiter Schritt, der auf die bereits erfolgte Erstellung des technischen Instrumentariums folgt. Der dritte Schritt wird der wirklich große: wir brauchen ein konzertiertes Herangehen an die Kommunikation, das in vieler Hinsicht einen Sinnes- bzw. Kulturwandel auf dem ganzen Kampus erfordern wird. Dazu ist viel guter Wille erforderlich. Für die nötige Überzeugungs- und Aufklärungsarbeit brauchen die Bibliotheken hier Rückhalt nicht nur von Wissenschaftlern, sondern auch – und das ist ganz zentral – von der Hochschulleitung und der Politik.

Das wird eine formidable Aufgabe, denn bei unserem Thema geht es nicht so sehr um Forschungs- oder Lehrinhalte, sondern um ein Metathema, das seit Jahrzehnten zersplittert und oftmals hinter vordergründigen Inhalten verschwunden ist: das Handwerk des Schreibens, der Vorgang der Publikation und, vor allen Dingen, die Räson hinter beidem. Dieses Thema gilt es neu zu entdecken und beherzt anzugehen und zwar nicht nur auf institutioneller, sondern auch auf höheren wissenschaftspolitischen Ebenen. Wenn sich auch hier einiges in den letzten Jahren getan hat, so führt bis zum Abschluss des Wandels in der wissenschaftlichen Kommunikationslandschaft gewiss noch ein langer, verschlungener und steiler Weg.

Aber fahrende Scholasten schreckt das ja nicht. Also, wie man so schön auf Russisch sagt: Вперед!

Ein Angebot das man nicht ablehnen kann. Warum Wissenschaftler Open Access wählen.

This post is based on a keynote address delivered for the Jahresversammlung 2017 of the VDB Südwest at Freiburg University on Friday, June 23rd 2017.

Als ich vor acht Jahren dem Heidelberger Exzellenzcluster „Asien und Europa im globalen Kontext“ beitrat, war mein erster Auftrag eine wissenschaftliche Zeitschrift für das neue Forschungsfeld der transkulturellen Studien aufzubauen. Diese Zeitschrift sollte auf der Open Source Plattform OJS laufen, von der UB gehostet werden und im Open Access erscheinen. Es galt also ein Herausgebergremium zu bilden, Arbeitsabläufe zu entwerfen, die Technik zu meistern, ein Team an Lektoren, Designern, und Programmierern zusammenzustellen, und selbstverständlich Manuskripte von Wissenschaftlern einzuwerben.

Die Akquise war damals und ist bis heute nicht einfach, aber der Gegenwind, der mir 2009 entgegenschlug, hat sich etwas gelegt. Beruhend auf meinen Erfahrungen der letzten Jahre, bietet dieser Post die These an, dass Wissenschaftler sich heute aus drei Gründen für Open Access entscheiden: Zwang, Eigennutz und Gemeinwohl.

Etwas Hintergrund

Seit 2009 hat sich viel getan. Bibliotheken und Archive haben inzwischen weltweit mit zahllosen Digitalisierungsprojekten den wissenschaftlichen Umgang mit Forschungsmaterial komplett verändert. Auffindbarkeit von und Zugriff auf verschiedenste Materialien online wird von Wissenschafltern heute quasi vorausgesetzt und ihr Forschungsverhalten hat sich dementsprechend angepasst. Um Kenneth Goldsmith zu bemühen: “If it doesn’t exist on the internet, it doesn’t exist.” 

Repositorien gehören nunmehr zum Profil vieler Forschungsbibliotheken. Was die Infrastruktur betrifft, so steht damit der sogenannte grüne Weg des Open Access offen. Aber auch Erstveröffentlichungen im Open Access (dem sog. Goldenen Weg) haben an Bedeutung gewonnen: In den Naturwissenschaften gehören Megajournals wie BioMedCentral, PeerJ, Elife oder auch PLOSone zu den besseren Adressen und auch die Verlage ziehen mit. Gerade die großen Häuser bieten ihren Autoren inzwischen eine Open Access Lösung an. Es rentiert sich ja auch – zumindest noch – da durch sog. Author Processing Charges die marktwirtschaftlichen Interessen der Verlage gewährt sind.

Auch die Forschungsparameter haben sich verschoben: Förderungsinstrumente und Forschungseinrichtungen erwarten immer öfter die Veröffentlichung von unterstützten Forschungsergebnissen im Open Access. (s.u.) und auch rechtliche Verschiebungen können nicht ausser Acht gelassen werden. Den Streit um die Angleichung des Urheberrechts verfolgen wir alle sehr gespannt. Deutschland hat inzwischen ein Zweitverwertungsrecht, das vielen zwar noch zu zaghaft ist, aber immerhin. Einige Zeitschriftenartikel können nunmehr ganz legal nach einer Embargozeit auf Repositorien eingestellt werden.

These: Drei Beweggründe bringen die Wissenschaftler dazu im Open Access zu publizieren: Zwang, Eigennutz, Gemeinwohl

Zwang

Von staatlicher bzw. Landesseite her ist in Deutschland die dezidierte Einforderung von Open Access noch etwas zögerlich. Die DFG, obgleich sie sich sehr stark für Open Access einsetzt, hat noch immer kein strenges Mandat und bei den Förderungsinstrumenten des Staates und der Länder ist es ähnlich. Anders ist die Lage jedoch bei unabhängigen Forschungseinrichtungen wie Max Planck, Leibnitz, oder Helmholz. Auch internationale Drittmittelinstrumente wie ERC und Horizon 2020 Programmen, Wellcome Trust, Bill & Melinda Gates Foundation ziehen die Daumenschrauben an. Es wird in den Richtlinien bereits eine Veröffentlichung der Ergebnisse im Open Access vorausgesetzt. Bei Nichteinhaltung kann es zu Problemen bei Folgeanträgen kommen. Das ist ein Angebot, das ein Wissenschaftler schwer ausschlagen kann, denn für heutige Forscher sind Förderungsinstrumente von existenzieller Wichtigkeit. Drittmittel sind ein sine qua non für eine erfolgreiche akademische Karriere, mehr noch, ohne Drittmittel stünden zahlreiche akademische Karrieren vor dem Aus. Das lässt den Wissenschaftlern nicht viel Spielraum.

Es gibt selbstverständlich Widerstand. Akademiker sind ein streitbares Volk – das sollen sie ja auch sein – und somit stoßen die Bestrebungen von offizieller Seite nach einem Open Access Mandat – sei es der Staat oder die Universtiät als Einrichtung – in Deutschland gerne auf Protest. Man denke zum Beispiel an die Normenkontrollklage gegen die „Satzung zur Ausübung des wissenschaftlichen Zweitveröffentlichungsrechts“ der Universität Konstanz, die Ende letzten Jahres eingereicht wurde. 17 Hochschullehrende der Universität Konstanz klagen gegen deren Satzung die ihre Wissenschaftlerinnen und Wissenschaftler zur Nutzung des Rechts auf Zweitveröffentlichung verpflichtet. Die Kläger sehen darin einen Verstoß gegen das Grundrecht der Wissenschaftsfreiheit (Art. 5 Abs. 3 GG). Die rechtliche Klärung dieser Frage wird wegweisend sein für die weitere Entwicklung des Open Access in Deutschland.

Eigeninteresse

a) Rechte

Wenn heute ein Wissenschaftler bei einem Verlag publiziert, so verliert er üblicherweise bei Unterschrift des Vertrages die Wiederverwertungsrechte an seinem Werk. Er darf es nicht übersetzen lassen, erneut publizieren, verschicken, oder in modifizierter Weise anderswo unterbringen ohne die Genehmigung des Verlages einzuholen.

Was immer wieder verwundert ist, dass sich selbst gestandene Wissenschaftler nicht darüber im Klaren sind wie weitreichend der Verlust der Rechte am eigenen Werk ist. Viele setzen sich wenig mit ihrem Publikum und dem Schicksal ihrer Inhalte auseinander. Es ist fast so, als ob die Publikation bei einem Verlag das eigentliche Ziel der Forschung ist und nicht die ideale Verwertung und Verbreitung der Ergebnisse. Es ist daher essenziell, gerade junge ForscherInnen darauf hinzuweisen, dass sie ihre Rechte am eigenen Werk – seien es Daten, Aufsätze, Programme, oder Bücher – in Open Access Publikationen mit einer Creative Commons Lizenz behalten können und dass das von Vorteil ist.

Es wäre unfair und auch nicht unbedingt hilfreich, die Verlage als zweidimensionale Bösewichter abzustempeln. Bei vielen Verlagen steht die Rechteverwertung der Inhalte im Zentrum des Geschäftsmodells – nur wenige wagen einen Schritt weg vom lukrativen Long Tail hin zu einem APC Modell.

Die meisten sträuben sich gegen die Veränderung, und Verlage investieren lieber in Lobby-Arbeit in Brüssel und Berlin um den Status Quo zu wahren, als sich auf das existentielle Risiko einer Umstellung auf Open Access einzulassen. Das ist wohl ein weiterer Grund, warum die Open Access Entwicklung relativ zäh vorangeht.

b) Distribution

Zurück zum Eigeninteresse. Es ist, wie gesagt, erstaunlich, dass sich akademische Autoren wenig Gedanken machen, für wen sie eigentlich publizieren. In den STM Fächern jagt man zwar dem Impakt Faktor nach – was eine ganze Reihe wissenschaftspraktischer Probleme mit sich bringt– aber in den Geistes- und Sozialwissenschaften scheint die Publikation tatsächlich oft noch Mittel zum Zweck zu sein. Aber auch hier gibt es wenigstens ansatzweise Veränderungen und das liegt an der digitalen Kommunikation im Allgemeinen und an den Sozialen Medien im Besonderen.

Aber natürlich sind längst nicht alle Forscher online aktiv, im Gegenteil. Sogar viele Jungforscher engagieren sich kaum online, sei es in Communities, Blogs, oder den sozialen Medien. Das ist einerseits gut, denn soziale Medien und Blogs fressen Zeit, die wiederum beim Schreiben, Forschen und letztendlich beim Leben fehlt. Allerdings ist es durchaus so, dass sich das Feld der Wissenschaftler spaltet in die, die digital engagiert sind und die die es nicht sind. Letztere tun sich damit keinen Gefallen , denn online werden nicht nur Informationen zu Förderungsmöglichkeiten, Stellenausschreibungen und Konferenzen ausgetauscht; es ist auch eine ideale Möglichkeit die Distribution der eigenen Forschungsergebnisse voranzutreiben. Open Access Publikationen erlauben es dem Wissenschaftler genau dies zu tun und zwar ganz legal, denn das Hochladen auf Academia.edu liegt, um es vorsichtig auszudrücken, in einer Grauzone, wohingegen man mit Open Access Publikationen nichts falsch machen kann.

Gemeinwohl

Der dritte Teil meiner These, der das Gemeinwohl als Beweggrund sieht, ist auch der Angenehmste und wichtigste: Das Gemeinwohl ist letztendlich der wirkliche Grund warum man das Angebot einer Open Access Lösung nicht ablehnen kann. Denn wenngleich Zwang und Eigennutz stark in der Entscheidung der Wissenschaftler für Open Access ins Gewicht fallen mögen, so muss doch letztendlich die gute Sache ausschlaggebend sein. Um das Gemeinwohl ging es in der Open Access Bewegung ohnehin von Anfang an. In der Budapester Open Access Initiative liest man Folgendes:

An old tradition and a new technology have converged to make possible an unprecedented public good. The old tradition is the willingness of scientists and scholars to publish the fruits of their research in scholarly journals without payment, for the sake of inquiry and knowledge. The new technology is the internet. The public good they make possible is the world-wide electronic distribution of the peer-reviewed journal literature and completely free and unrestricted access to it by all scientists, scholars, teachers, students, and other curious minds” (BOAI)

Mit anderen Worten, Open Access ist grundsätzlich eine ethisch motivierte Bewegung, in der es darum geht, Erforschtes allen Menschen zur Verfügung zu stellen, zum Wohle der globalen Gemeinschaft. Damit regt Open Access Wissenschaftler zur Selbstreflektion an: Für wen und wofür wird geforscht, wem gehören die Ergebnisse und wer soll Zugang zu ihnen bekommen? Kurzum welchen Auftrag hat die Wissenschaft und welche Grenzen akzeptieren wir?

Conclusio

Wie weit sind wir nun gekommen seit dieses hehre Ziel 2001 gesteckt wurde? Open Access Befürworter sind ungeduldig, und ich verstehe und teile diese Ungeduld. In einer Welt, in der dreißig Sekunden Downloadzeit ewig dauern, mag es tatsächlich etwas viel verlangt sein, sich nach zwanzig Jahren zufrieden zu geben mit den bisherigen Entwicklungen.

Andererseits müssen rechtliche und existentielle Fragen von Forschern, Verlagen und Einrichtungen geklärt werden und das braucht seine Zeit. Verlage bangen um ihre Existenz; Forscher kämpfen härter als je um Stellen, deren Vergabe oftmals auf dem Prestige der Zeitschriften und Verlage beruht, in denen man veröffentlicht; Bibliotheken sehen sich plötzlich völlig neuen Aufgabenbereichen gegenüber. Es wäre aber verkehrt zu sagen, dass wir nicht vorankommen: Die Infrastruktur für Open Access Publikationen im grünen wie im goldenen Weg ist weit gediehen und viele Wissenschaftler sind für die Vorteile des Open Access weitaus offener geworden als sie dies noch vor zehn Jahren waren.

On the Oxford Dictionary’s Choice of “Post-truth” as the Word of the Year.

What a mess: Turns out my enthusiastic use of Facebook over the last years ended in a semantic cul-de-sac. Like millions, I handed over my personal interests, preferences, and personality traits (“which Sherlock Holmes are you?”) to an invisible data-glutton who diligently digested all my information and spewed it back at me in the form of a tailor-made feed where I found little to disagree with. Recently, my time to read newspapers became ever more scarce, while the convenience of finding “all I need to know” on FB lulled me into a false sense of security. Now it is clear that what I had considered to be “the situation” turned out to be an incredibly skewed vision of reality. Like so many after Trump’s election and Brexit, I am shocked to realize that I have no idea any more what is true and what isn’t. As of today, the jargon expression I’d been using for a while to describe this state of affairs has become an official word with a pedigree: post-truth.

What does this mean for scholarly communication? Here, too, the foundations of what is and what isn’t true have been shaken. Peer-review has taken a hit as a bastion of quality control; the reproducibility crisis put a dent into the credibility of STEM research. The humanities and social sciences have been grappling with the post-modernist legacy of “there is no truth” for decades.

What is left? Technology? Possibly, but we need to ask ourselves whether we are building things for the betterment of life or because we want to hand over more and more tasks and thus responsibility for our lives to non-human intelligence. What is at the end of that rainbow? The discussions will have to continue!

Perhaps truth (absolute or otherwise) is over; nevertheless, if we want to co-exist peacefully, we will have to agree on what we consider important and beneficial to all. Rebuilding a social consensus is going to be very difficult and a lot of work. We will have to reestablish the meaning of concepts such as “democracy”, “freedom”, “security”, “privacy”, “community”, or “accountability”. We will have to continue to improve the way we disseminate and vet information and research results. And, as I argued yesterday, we will have to get better at communicating our work to everyone – not just those within our algorithmically curated information-bubbles.

Help Us, Academia, You Are Our Only Hope.

Yesterday, The Scholarly Kitchen’s David Crotty reflected on the presidential omnishambles in his piece “The US Election, a Need for Curation, and the Power of Story”. He offers two points: the first – which is well taken – tackles the role of Facebook and its information bubbles built by algorithms.

Crotty’s other point is the lack of a narrative for scholarly publishing. He writes:

We are notoriously poor at telling our story. We know we do something valuable, but what we do is often subtle and unseen, and when we start describing it, we get lost in the details and the caveats. At that point, we’ve lost our audience.

For the last decade and a half, we have been trying to counter an argument that all publishers are greedy corporations, reaping massive profits, and bent on stopping cancer patients from reading about their conditions. Or one that publishers steal the hard work of researchers and then sell that work back to them at exorbitant prices. Neither of these arguments is particularly true, but both resonate emotionally. That’s hard to counter with wonky charts showing declines in cost-per-use or cost-per-citation or an in-depth explanation of the peer review process. Rooting for a self-declared Luke Skywalker over someone they’re accusing of being Darth Vader is much easier to get behind than understanding the subtleties of a complex service industry.

While the bit Crotty describes as “not particularly true” is, well, debatable, the rot in scholarly communication runs much deeper. “People of this country have had enough of experts”, opined Michael Gove just before Brexit. At that moment, scholarly communication was handed the bill for failing spectacularly at making itself understood, relevant, and persuasive. This is not just due to pay walls or too many facts to make a convincing case; the bitter truth is that an increasingly incomprehensible ivory tower – and the academic publishing industry is part of it – has utterly disconnected from the wider public.

The thing is, good writers are incredibly rare in academia and editors are by now seen as a luxury most publishers cannot afford. Both exist almost in spite of a system that on the one hand is insatiable when it comes to new content but on the other considers rhetorical skills and the craft of writing to be a given. Yes, there are writing programs here and there, additional courses offered by graduate academies and the like, but the fundamental skills of communication have not really been at the core of our education for a long time. And now it shows. We get lost in technicalities, unable to clearly convey the bigger picture and relevance of what we do. We cannot thrill, excite, and stimulate a wider audience with our discoveries because we never really learned how to formulate and produce a good story. Our tales are boring, disjointed, and more often than not a stylistic nightmare. Who wants to read this stuff?

While the hour is late to own up to this, it is good that we realize the problem not only in the US and Britain but also in Europe. Here too the concern over a missing narrative is manifesting itself. In yesterday’s Forward the Commons! A unifying political vision for Europe the authors call for a positive counter-narrative:

The crisis of the European Union begs for new, unifying and constructive narratives – alternatives to the right-wing populist and nationalist wave that is getting fiercer every day. A commons approach holds the potential for a unified vision towards an alternative economy, a Europe from the bottom up and an ecological way of life.

It remains to be seen whether such a vision will convince those Europeans who are already under the spell of the fear-mongering, anti-intellectual tales of “us vs. them” that characterize so many of our right-wing demagogues. The would-be authors need to remember that a good story needs conflict and a hero, a familiar structure and a touch of magic. Take Trump’s slogan “Make America great again”. Its disconcerting genius lies in the fact that it distilled all these elements into four words.

But finding these crucial structural ingredients will not be enough. To quote Pulitzer, the authors of an alternative narrative will have to:

Put it before them briefly so that they will read it,
Clearly so they will appreciate it,
Picturesquely so they will remember it,
And, above all, accurately so they will be guided by its light.

It is foolish to think that such skills just somehow appear. They need to be learned. Enter another crucial element of any good story: the mentor. Who other than academia can fill the role of the Merlins, Gandalfs, and Obi Wan Kenobis? If scholarly publishing once more considers the readability of content as an important hallmark of quality and academia rediscovers its duty of preparing folks with the communicative tools for a reflected, well-informed life, then we may be able to at least adjust the narrative and look to brighter days ahead.

The Dust Still Hasn’t Settled. Reading the Results from Science Europe and Global Research Council Surveys

Last month Science Europe published a survey report on Open Access Publishing Policies in its Member Organisations. Based on two surveys conducted in 2012 and 2014 respectively it casts light on the progress – or lack thereof – in the implementation of #OA across the disciplines.
The data for the report is based exclusively on information provided by Research Funding Organisations and Research Performing Organizations who participated in both surveys. While methodologically this is a sound decision, it considerably limits the representative value of the exercise. A glance at the participants shows that most information was culled from (Western) Europe. With the exception of the Czech Republic, Poland, and Hungary, Eastern Europe is absent from the survey. Considering that the 2014 survey was of global scope, the reach of the results shrinks even more.
Nevertheless, it is a step in the right direction. Considering the ongoing fluctuation of the publishing landscape, the breakneck speed of technical developments, and the recent political upheavals that may yet play a role in the further pursuit of transnational open access to research, it is helpful and encouraging to see the first steps toward an overview coming from the very organisations who, in my opinion, hold the key to the success of the transition.
The report conveys a sense of direction and awareness of pressing issues, such as supporting new initiatives or establishing technical standards, which are crucial in the steps ahead. On the other hand, it also becomes clear that the mills do grind very slowly indeed: there is little more than encouragement and suggestion – we are still a far cry from a pan-European (leave alone international) Open Access Policy with bite.

Twitter Open Access Report – 25 May 2016

The big news lately is that Elsevier has acquired @SSRN (the Social Science Research Network), the world’s biggest repository for the social sciences and humanities (source: @d_mainwaring). As one might expect, there were some responses.

Whatever happens, this is definitely worth keeping an eye on over the next few months.

The IDPF and the W3C have announced plans to join forces “to more quickly advance publishing technologies on the Open Web Platform.” The internet had some thoughts on that:

The “Green Light for Open Access Conference” took place in Amsterdam last week. @LIBEReurope has a recap here,  and you can see the program and links to presentations at the Pasteur40A website, and lots of follow-up Tweets on their Twitter page.

ScienceOpen.com is running a series of interviews in which they discuss the background, current state, and further development of Open Science with a number of folks currently in the trenches from a wide range of disciplines and locations. The aggregate result is a terrific overview of the movement and a wide range of educated opinions. Definitely worth reading.
Source: @Protohedgehog

In “Economic Thoughts about Gold Open Access“, an economist ruminates on whether flipping to gold open access would be financially viable. Spoiler alert: It would! But go read the post anyway, and the very interesting discussion in the comments.
Source: @MikeTaylor

As you may recall, around this time last year we reported on a Max Planck Society white paper showing that flipping would be cost-neutral, or even cheaper.  Björn Brembs asks why we haven’t done that yet.  If there is an answer to this question, I suspect it involves the phrase “herding cats”.
Source: @ForgottenGenius, @brembs

The OPEN Government Data Act, introduced in the US House of Representatives, will make open government data the default, in keeping with a 2013 executive order [pdf] issued by President Obama. A companion bill will be introduced in the Senate. You can also read section summaries [pdf].

Transport for London (@TfL) has opened its data feed to developers. Here’s the article, and here’s a link to the data. Can’t wait to see what they come up with!

For those of us whose attention has been elsewhere for the past few months, Tom Steinberg wrote a critique of the open data movement’s progress, combined with a nice state of play.

Outsourcing Editing? Part II

Last fall, I wrote about the financial challenges of quality copy editing. The post grew out of having to develop a new editing workflow and a sustainable business model for our local publications. My plan was, as I wrote in October, to pursue contracts with some of our long-time freelancers and one or two additional providers. They arranged for a series of editing samples that tackled an excerpt from one of our typical texts. The quality was good and the price seemed fair but while we were negotiating, my erstwhile strategy was overtaken by developments within the university administration, which made outsourcing a lot more complicated.

With this change of administrative goalposts came the realization that we would have to produce Issue 2/2015 of our e-journal Transcultural Studies completely in-house because we would not be able to reorganize the outsourcing workflow in time for publication. It was only the second time we had to handle everything from submission to publication without the assistance of a freelancer. However, we did well: When we went live just before Christmas it had become evident that our team, consisting of two copy-editors, one layout-specialist and two assistants (all on part-time student assistant contracts except for one copy-editor who holds a 50% editorial assistant position), had grown enough to accomplish the production (read: from copy-edit to publication) of a book-length project (130 and 289 pages respectively) in about seven weeks. This includes two rounds of changes by the authors, as well as the production of pdfs (InDesign) and an html version.

After some internal discussions with the powers that be, we decided to shelve all negotiations with freelancers and instead test our internal workflow further with a larger manuscript. The project that became our next guinea pig contains some 25 essays of varying length and uneven linguistic quality, written—like most of our submissions—in English by non-native speakers. In short, this project was several times the size of the e-journal issue we had just tackled.

The task really stretched our capacities: First, we learned that our project management needs fine-tuning. There were redundancies due to oversights and varying competencies. We format according to the Chicago Manual of Style and some team members are more familiar with it than others, which translated into repeated rounds of checking. This is no big deal for an essay or two, but when there are two dozen essays to edit, this can consume many hours. Further developing copy-editing skills is therefore high on our agenda.

Second, there are divergent approaches to editing within the team. Some edit with a more pedagogical bent because they usually deal with student papers. Others come from a publishing background and approach problem solving in a more fait accompli way. The former may tell the author the nature of their mistakes, while the latter offer a take-it-or-leave-it alternative formulation instead. Both approaches have their merits and we will have to find an editing style that combines the best of both without prolonging the overall publication process.

Last but not least, we grappled with the question of how perfect a manuscript can get before it goes into layout. It is part of a good editor’s skill set to know when to let go and come to terms with the fact that no manuscript will ever be flawless. All editors have to weigh between production costs and perfect formulation and formatting. In all my years on the job, I have never been in a win-win situation when it comes to this. Something always has to give. How much that is or when the right time has come to let go is something that as a team we have to agree on.

In the end we took too many hours for the copy-edit. It would have been undoubtedly cheaper to outsource the task to a freelancer for a fixed price. But I consider the difference as an investment. As we hone our skills, we will get better and faster and thus more cost-effective. Since the next excellence initiative is around the corner and the tremendous challenges of publishing competitive English-language output in the humanities and social sciences by non-native authors is unlikely to go away, an experienced resident editing team will be able to offer indispensable support not only to in-house  publication projects, but also to resident scholars who wish to place their work with high-profile international publishing houses.

We received the next book manuscript a couple of weeks ago for copy-edit. Let’s see how much we have improved. Part three on this topic will follow.

 

Twitter Open Access Report – 21 January 2016

PLOS has an interview with John Willinsky on where open access publishing is headed, a very interesting update from a pioneer in the field. You can listen to the “PLOScast” (heh) here.

It’s the Netherlands’ turn to head up the EU Council, and it looks like they’ve hit the ground running: Education Minister Sander Dekker is using the opportunity to push for wider implementation of open access in scientific journals, and a conference on Open Science is scheduled for early April. Meanwhile, Foreign Minister Bert Koenders is challenging app developers to come up with ways to make better use of open data. But wait, there’s more! Should be an interesting six months.

Can open data solve some of the PR problems that have plagued police forces in the United States have had recently? Seattle’s City Council is pushing its police department to open access to their data on civilian complaints and discipline. They hope this will cut the costs associated with disclosure requests, and increase police accountability. The Stranger has the story here.
Source: @RickyPo

The Guardian reports that ODINE, the Open Data Incubator Europe, has announced its next round of startup grant recipients, including, among others, an Austrian effort to increase public access to legal information; a Finnish app that will tell you whether your roof wants solar panels; and a German initiative to clean up city air – a timely idea, since the city of Stuttgart has an air pollution alert in effect this week.

Another Guardian article (also sponsored by ODINE) sees open data having a profound effect on activism and charity in the coming year. Governments will start to see data as infrastructure, journalists and charities will make better use of data to hold governments accountable, activists will start working to fill the gaps, data literacy will come to be regarded as a basic skill, and technology will race to keep up with the changes.

The peer review process has come under scrutiny lately, with some arguing that the process needs to be more transparent. Some like-minded academics have now launched the Peer Reviewers Openness Initiative: put simply, the Initiative asks that “reviewers make open practices a pre-condition for more comprehensive review.” You can read more about it and add your name here.
Source: @SciPubLab

A Canadian site has an interesting post on How Open and Free Content Will Transform Post-Secondary Education, which lays out the reasons for and implications of open educational resources and points out that we are in the middle of a massive paradigm shift. I kind of knew that, but it is good to be reminded.
Source: @RickyPo

A white paper on MOOCs (in German) asks whether MOOCs are hype or helpful, and concludes that they won’t revolutionize education, but they will become increasingly important, and schools should engage with them or risk being sidelined. You can read a more detailed summary or download the paper from here.
Source: @ayeshaasifkhan

The Conversation has an editorial suggesting that teaching students to write better would help them avoid plagiarism. I’d say it has a great many benefits other than that, but sure: if that’s what it takes to persuade more universities to teach students how to write, rather than assuming they’ll bring that skill to college with them, then let’s focus on that aspect. Whatever gets them in the door.
Source: @ConversationUK

Recent Conferences

Knowledge Exchange celebrated their 10-year anniversary in Helsinki on 30 November and 1 December last year. Here is a two-part Storify: Part 1. Part 2. And #KEevent15 has some good follow-up Tweets as well.

The last two days have seen some interesting Tweets from Academic Publishing in Europe’s 2016 conference in Berlin. All presentations were recorded and should be up soon, so follow #APE2016 on Twitter for the latest.

Twitter Open Access Report – 16 November 2015

The big news of the past few weeks has been the mass resignation of Lingua’s editorial staff. They’re leaving Elsevier over the latter’s refusal to convert the journal to open access, and plan to launch their own OA journal, which they will call Glossa. Ars Technica has the story, as does Inside Higher Ed and a host of other outlets. Here’s a nice roundup from Kai von Fintel.
Source: @RickyPo

We mentioned an EC workshop on Alternative Open Access Publishing Models in the last Report. You can now download all the presentations from that workshop from the EC website, here.
Source: @DigitalAgendaEU

While information wants to be free, the work of disseminating it does carry some costs. The Chronicle of Higher Education has a look at what the real costs of publishing are, and how open access publishers try to cover them. Read it here.
Source: @chronicle

Two Reports ago, we talked about what would be needed to make the leap to Open Access en masse. Martin Haspelmath (@haspelmathhas an idea: high-profile research institutions like the Max Planck Institute and the Wellcome Trust could create and fund their own journals; well-run journals with solid peer review practices would increase the prestige of the institutions, and running these enterprises as a public good rather than a profit-machine would free up money for research.
Source: @RickyPo

Sofie Wennström of the Stockholm University Library has a summary of the #AlterOA workshop and a call for higher-level support for sustainable OA. Read it here.
Source: @SofieWennstrom

The Open Access Spectrum Evaluation Tool ranks journals on their openness, and you can filter your search by different aspects such as reuse rights, machine readability, etc. Very useful when you’re deciding where to submit your article.
Source: @ayeshaasifkhan

Here’s a storify of Open Access Week tweets.
Source: @nxtstop1

Martin Tisne has a post on why Open Data is necessary at the Open Government Partnership Blog, wherein he points out, among other things, that it can be used to hold goverments to account. Medium.com has a very interesting case in point: a white paper about how Open Data helped uncover corruption in Myanmar’s jade industry.

A post on Yorokobu.es notes that MOOCs only have a 7% completion rate, and the headline offers some solutions for retaining them, though the article itself has more to say about predicting which users will drop out. The author does not stop to wonder why it’s so important that students complete the course, or whose priorities are being served when they do.

Tech Crunch has a more nuanced take on the once-popular notion that MOOCs would destroy the university system. As colleges become prohibitively expensive, the college degree will lose its status as the only qualification worth having, and MOOCs will be ready to step in and fill the gap – so, more of an end-run than a head-on collision.
Source: @TechCrunch

Martin Ebner has a presentation on where MOOCs are headed at the TU Graz’s e-learning blog (in German, but easy enough to follow even if you’re not fluent). Check it out here.
Source: @mebner

In an article in The Atlantic, Victoria Clayton wonders why academic writing is so unnecessarily complex. She blames elitism and tradition, as well as the disconnect between academics and the public, but notes that current moves toward Open Access might force academics to write more accessibly – after all, what is the point of making your work available to the public if they can’t understand it?

Twitter Open Access Report – 19 October 2015

A Dutch initiative called LingOA has launched, in which the editorial boards of five linguistics journals have begun the process of leaving their publishers or renegotiating their agreements in order to publish with Ubiquity Press in association with the Open Library of Humanities. Here is the press release from the University of Nijmegen.

Times Higher Education has an infographic showing that universities’ journal bills are rising due to the need to pay APCs for open access publications – because subscription charges are not going down, the APCs are currently an added cost. The headline seems to imply that OA is the problem, but shedding those subscriptions would seem to be the best way forward.

International Open Access Week officially starts today, 19th October, with 229 events listed on the website so far! Perhaps this is not the week for sleep.

On 6 November, @martin_eve will be in Helsinki to talk about The Humanities in the Digital Age: Access, Equality and Education. Dr. Eve will discuss the context and controversies around Open Access, and discuss alternative models for publishing research.

Speaking of context and controversy, @StephenPinfield has used discourse analysis tools to look at the state of the debate on Open Access. He comes up with 18 propositions which are too long to go into here, but the article is definitely worth a look.
Source: @ClareHooperLUP

The EU’s Research Commissioner, Carlos Moedas, has called on scientific publishers to accept that open access is the way of the future, and adapt their business models accordingly.
Source: @scibus

One of the obstacles to a broader and speedier transition to open access is a lingering doubt about the quality of such publications. After all, traditional publishers have had decades, some of them centuries, to build up a reputation. Utrecht University is hosting a workshop led by @jeroenson tomorrow, 20 October, to address such concerns and teach interested researchers how to assess the quality of an OA publisher, and which metrics are used to determine quality. Information and registration here.

The Open Library of Humanities launched on 28 September, with 7 journals to begin with, and certainly more to come. There are no APCs for authors – the project is funded by a consortium of libraries, and more institutions are joining every day.
Source: @openlibhums

Most of the discussion around open access publishing seems to focus on journal articles, but publishing OA monographs throws up a different set of challenges. Guide to Open Access Monograph Publishing, a book addressing these issues, has now been published and can be downloaded here.

OA is making huge strides in Latin America; in many ways, they are well ahead of Europe. Here’s a look at the OA publishing landscape there: Made in Latin America: Open Access, Scholarly Journals, and Regional Innovations. [pdf]
Source: @stevehit

Predatory journals have been drawing negative attention to the open access movement – are they a serious drawback to this kind of publishing, or is the threat overstated? Chenyu Shen and Bo-Christer Björk of BioMed Central have conducted a study on such journals and have concluded that the problem is restricted to a few countries.
Source: @BioMedCentral

LERU (the League of European Research Universities) has issued a statement asserting that “Christmas is over”: with the results of researchers’ labor locked behind paywalls, soaring subscription fees, and often exorbitant APCs, for-profit publishers are getting a lot of free money. This should stop, says LERU, who will call on the EC to speed the transition to open access. You can read and sign the statement here.
Source: @Jeroenson

@timeshighered reports on a study that finds that open peer review produces better results than the traditional, single-blind model. One of the study’s authors speculates that reviewers might behave better if they know their comments will be seen by the public.

The Guardian has an article about how some European cities are using open data to get smarter, with a few nifty examples of what the new technology can do for citizens.

In “MOOCs Making Progress after the Hype has Died”, Coursera co-founder Daphne Koller talks to Don Huesman about how MOOCs will move forward now that rumors of their death turn out to have been somewhat exaggerated. She points out that the initial hype was that MOOCs were going to put universities out of business, and when, after two years, that hadn’t happened yet, they were said to have failed – but that was never the point of MOOCs in the first place, so you can’t really call it a failure. They are attracting students, including students outside the reach of traditional universities, and it looks like they will continue to do so.

Meanwhile, a report in the Stanford News claims that MOOCs haven’t really worked out, but again, the hype was overblown, and it’s a bit much to expect anything to completely reshape education in three years.

MIT is launching a pilot project that will offer a “Micro-Master’s” in Supply Chain Management, combining MOOCs and on-campus education to effectively halve the price of the degree.

“Students who do well in a series of free online courses and a related online examination offered through MIT’s MOOC project, MITx, will “enhance their chances” of being accepted to the on-site master’s program, according to a university statement. Students who come to the program after first taking the MOOCs will then essentially place out of the first half of the coursework, so they can finish the degree in a semester rather than an academic year. That effectively makes the master’s program half the usual price.”

Source: @chronicle

Next month is NaNoWriMo! Folks in academia might want to consider #AcWriMo, a solid month to dive in, focus on that dissertation or article, and Get It Done. Also an excellent excuse to stay inside and avoid all that weather.

Recent Conferences

The presentations from last month’s Conference on Open Access Scholarly Publishing (#COASP) are online now.
Source: @Nancydiana

Sebastian Nordhoff has a nicely succinct summary of the workshop on Alternative Open Access Publishing Models held in Brussels last week. It seems there was a lot of information flying around, but not much time for discussion, given the tight scheduling. Overall, though, some exciting new possibilities were discussed, and although the workshop was  organized by a political body, there were surprisingly few calls for political action. #AlterOA is bound to be interesting on Twitter for the next few weeks.
Source: @langscipress

Upcoming Conferences

University College London will host an Open Access Conference on 21 October from 2-5 pm, where a group of Open Access luminaries will discuss the current OA landscape and various emerging publishing models. Sounds fascinating. Hope someone blogs about it after.