Springe direkt zu Inhalt

Bibliometrie

Bei der Bibliometrie handelt es sich um die Messung wissenschaftlichen Outputs basierend auf Publikationen sowie um die Interpretation der Ergebnisse. Die Basis für bibliometrische Analysen bilden Massendaten, die durch Zitationsdatenbanken wie beispielsweise Web of Science und Scopus bereitgestellt werden. Für deren Auswertung werden mathematische und statistische Methoden angewandt. Eine bibliometrische Analyse liefert keine qualitative Bewertung, sondern eine quantitative Messung der Publikationen. Damit ist die Bibliometrie ein Teilgebiet der Szientometrie, der Messung wissenschaftlicher Leistung.

Wissenschaftliche Erkenntnisse werden in der Regel als Veröffentlichungen in Form von Fachaufsätzen, Vorträgen und Büchern oder auch als Daten publiziert. Auf diese Publikationen können sich wiederum andere Forschende in ihren Publikationen durch Zitationen beziehen. Unabhängig davon, ob wissenschaftliche Ergebnisse positiv oder negativ aufgenommen werden, stellen die auf sie bezogenen Zitationen ein Maß an Resonanz dar.

Die häufigste Grundlage bibliometrischer Kennzahlen ist daher das Verhältnis zwischen der Anzahl von Publikationen und der Anzahl an Zitationen, beispielsweise einer forschenden Person oder einer Zeitschrift. Im Zuge der sich beständig weiterentwickelnden Wissenschaftskommunikation wurden alternative Metriken, sogenannte Altmetrics, entwickelt. Diese setzen auf eine unmittelbare Auswertung, auch aktueller Publikationen, und lassen auch neue Medien wie Twitter und Blogs in die Auswertung einfließen.

Bibliometrische Indikatoren werden allerdings häufig fehlinterpretiert und in der akademischen Leistungsbeurteilung unsachgemäß eingesetzt, weswegen sie in der Wissenschaftsgemeinschaft zunehmend skeptisch betrachtet werden. Auch werden Indikatoren der alternative Metriken aufgrund ihrer Manipulierbarkeit kritisiert. Für Wissenschaftler*innen ist es dennoch von Vorteil, sich mit bibliometrischen Indikatoren auseinanderzusetzen, weil es ihnen eine sachgemäße Einordnung der Resonanz auf die eigenen Publikationen ermöglicht. 

BerlinUP berät Sie, wenn Sie Fragen zu bibliometrischen Kennzahlen und deren Implikationen haben.

Unter dem Begriff autor*innenbezogene Indikatoren werden alle Kennzahlen zusammengefasst, die ausschließlich die wissenschaftliche Arbeit von Personen zu quantifizieren versuchen. Diese können beispielsweise bei der Beantwortung folgender Fragen helfen:

  • Wie viele Publikationen habe ich als Autor*in in einer bestimmten Zeitspanne veröffentlicht?

  • Wie häufig wurde ich zitiert?

  • Wie lassen sich Reichweite und Einfluss meiner wissenschaftlichen Erkenntnisse vergrößern bzw. verstärken?

Nachfolgend werden einige autor*innenbezogene Indikatoren erläutert.

Anzahl an Publikationen

Stellt die absolute Anzahl an veröffentlichten Dokumenten in einem definierten Zeitfenster dar.

Anzahl an Zitationen

Stellt die absolute Anzahl an Zitationen von definierten Publikationen in einem definierten Zeitfenster dar.

Zitationsrate

Die Zitationsrate misst die Anzahl an Zitationen im Verhältnis zur Anzahl an Publikationen. Sie gibt damit an, wie oft im Durchschnitt ein Artikel einer Person zitiert wird. Ausreißerpublikationen fallen hier stark ins Gewicht.

h-Index

Der h-Index, auch Hirsch-Index, stellt ein Verhältnis zwischen der Anzahl an Publikationen, meist einer Person und deren Zitationen dar. Der h-Index einer Person kann maximal so groß sein wie die Anzahl der Publikationen der Person, aber nur wenn diese jeweils mindestens so oft wie die Gesamtzahl der Publikationen zitiert wurden. Wurden zum Beispiel von einer Person zwei Publikationen jeweils zweimal zitiert, so ist der h-Index der Person 2. Werden beide Publikationen jeweils dreimal zitiert, bleibt der Index bei zwei. Erst ab einer dritten Publikation und jeweils mindestens drei Zitationen der drei Publikationen steigt der h-Index auf 3 an. Je höher der h-index einer Person ist, umso größer ist die Anzahl an häufig zitierten Publikationen dieser Person. Ein einmal erreichter h-Index bleibt daher mindestens gleich, kann aber nicht allein durch weitere Publikationen steigen. Einzelne Ausreißerpublikationen, die häufiger oder weniger häufig zitiert werden, fallen zudem wenig ins Gewicht. Der h-Index wird meistens personenbezogen angewendet, kann aber auch auf Personengruppen, Einrichtungen und Institutionen angewendet werden. Der h-Index wird als wenig aussagekräftig kritisiert, weil er statt Qualität Produktivität misst. Zudem kann er abhängig von der Datenbasis, auf deren Grundlage er gemessen wird, variieren.

Field-Weighted Citation Impact (FWCI)

Dieser Indikator wird sowohl für einzelne Veröffentlichungen als auch für Autor*innen verwendet und berücksichtigt disziplinspezifische Publikationskulturen. Der FWCI ist das Verhältnis zwischen der tatsächlichen Anzahl der Zitierungen, die eine Publikation bisher erhalten hat, und der erwarteten Anzahl für eine Publikation mit ähnlichen Merkmalen. Die erwartete Zahl bezieht sich auf die durchschnittliche Anzahl der Zitate in den letzten drei Jahren für alle Ausgaben desselben Alters, Dokumententyps und Fachgebiets. Der FWCI wurde von Elseviers Datenbank Scopus (siehe unten) eingeführt.

Die Relevanz von Publikationsorganen kann in den einzelnen Forschungsdisziplinen sehr unterschiedlich ausgeprägt sein. Auch innerhalb einer Disziplin sind nicht alle Journals für alle Forschenden gleichbleibend relevant. Hier setzen zeitschriftenbezogene Indikatoren an. Diese sollen dabei helfen, folgende Fragen individuell zu beantworten:

  • In welcher Zeitschrift sollte ich publizieren?

  • Welche Zeitschrift ist in meiner Disziplin besonders relevant?

Journal Impact-Factor (JIF)

Der Journal Impact Factor (JIF), häufig auch nur Impact Factor (IF) genannt, errechnet sich aus dem Verhältnis der Gesamtanzahl aller Zitationen einer Zeitschrift aus zwei Jahren durch die Anzahl der in der Zeitschrift veröffentlichten Artikel in diesen zwei Jahren. Wurden in einer Zeitschrift in den Jahren 2020 und 2021 insgesamt 100 Artikel publiziert, die insgesamt 200 Mal zitiert wurden, so ist der JIF der Zeitschrift im Bezugszeitraum 2. Ein JIF kann immer nur für abgeschlossene Jahrgänge berechnet werden. Das bedeutet, der in 2022 angegebenen JIF einer Zeitschrift errechnet sich aus den beiden vorangegangenen Jahrgängen.

Der JIF wird häufig fälschlicherweise mit den Forschungsleistungen der publizierenden Autor*innen gleichgesetzt, obwohl er ein reiner Zeitschriftenindikator ist. Zudem sagt eine Publikation in einer Zeitschrift mit einem hohen JIF nichts über die wissenschaftliche Qualität der Publikation selbst aus. Dies war auch nie Ziel des JIF, der von Eugene Garfield am Institute for Scientific Information ursprünglich mit dem Ziel entwickelt wurde, Bibliotheken bei der Auswahl zu abonnierender Zeitschriften bei begrenzten Mitteln zu helfen. 1975 erstmals für eine Auswahl an Zeitschriften berechnet und im Rahmen der Journal Citation Reports (JCR) veröffentlicht, sind sowohl der JIF als auch die JCR heute ein Produkt des Unternehmens Clarivate Analytics.

Source Normalized Impact per Paper (SNIP)

Beim SNIP wird die durchschnittliche Anzahl Zitationen einer Zeitschrift ins Verhältnis zur durchschnittlichen Zitierhäufigkeit in seiner jeweiligen Disziplin (dem Zitationspotenzial) gesetzt. Ein SNIP von 1 bedeutet, dass eine Zeitschrift entsprechend dem Durchschnitt des entsprechenden Forschungsfeldes zitiert wird. Bei einem SNIP von 2 werden Artikel der Zeitschrift im Schnitt doppelt so häufig zitiert, wie es durchschnittlich der Fall ist. Ziel des SNIP ist es, die Reichweite von Publikationen innerhalb verschiedener Disziplinen vergleichbar zu machen. Der SNIP wird von Elsevier über deren Datenbank Scopus (siehe unten) ausgegeben.

Bei der Wahrnehmung wissenschaftlicher Publikationen spielen nicht mehr nur die Resonanz in rein wissenschaftlichen Publikationsorganen eine Rolle. Forschungsinhalte werden zunehmend in neuen Medien, wie Twitter oder Wissenschaftsblogs, zitiert und diskutiert. Forschende machen selbst in sozialen Medien auf ihre Forschung aufmerksam oder werden als Gast in Podcasts eingeladen. Über diese Kanäle kann eine Diskussion von Forschungsinhalten und deren Methodik über das Peer-Review-Verfahren hinaus mit einer breiten Öffentlichkeit diskutiert werden. Auch die Resonanz und Reichweite von Forschungsinhalten kann so erhöht werden.

Die Reichweite der Aufmerksamkeit in neueren Medien kann beispielsweise durch die Anzahl an Klicks oder Downloads gemessen werden, aber auch durch Erwähnungen oder gesetzte Lesezeichen. Diese alternativen Metriken (Altmetrics) werden von unterschiedlichen Anbietern, wie beispielsweise Digital Science (Altmetric) oder Elsevier, aufbereitet.

Alternative Metriken sind kein Ersatz der herkömmlichen bibliometrischen Kennzahlen, sondern können zu deren Ergänzung herangezogen werden. Auch hier gilt, dass eine hohe Anzahl Erwähnungen nicht zwingend mit einem hohen Maß an Qualität gleichzusetzen ist.

Für die Berechnung bibliometrischer Kennzahlen gibt es eine Vielzahl an Datenquellen, die je nach Anbieter unterschiedlich genutzt werden können. Zwar bieten verschiedene Datenbanken häufig die gleichen Metriken an, die Ergebnisse unterscheiden sich jedoch teilweise aufgrund der abweichenden Arbeitsweise und Berechnung durch die Anbieter sowie der divergierenden Datengrundlage. Daher ist es bei jeder bibliometrischen Analyse wichtig, die verwendeten Datenquellen zu benennen.

Scopus

Scopus ist eine multidisziplinäre Datenbank des Unternehmens Elsevier, die größtenteils aus einer kuratierten Liste von Zeitschriften und Veröffentlichungen besteht, welche vor ihrer Aufnahme anhand von Qualitätsstandards überprüft werden. Die abgedeckten Themenbereiche sind nach wie vor stark auf die Naturwissenschaften ausgerichtet, knapp ein Drittel des Inhalts entfällt auf die Sozialwissenschaften.

Web of Science

Web of Science ist eine multidisziplinäre Datenbank des Unternehmens Clarivate Analytics, die sich aus mehreren Indizes zusammensetzt. Diese Indizes bestehen aus einer kuratierten Liste von Zeitschriften und Veröffentlichungen, die für die Aufnahme anhand von Qualitätsstandards überprüft werden. Obwohl der Schwerpunkt der abgedeckten Fachgebiete nach wie vor auf den Naturwissenschaften liegt, erweitert Web of Science seinen Abdeckungsbereich auf die Sozial-, Kunst- und Geisteswissenschaften beständig.

Dimensions

Dimensions ist eine multidisziplinäre Datenbank des Unternehmens Digital Science, welche Metadaten aus frei zugänglichen Online-Quellen aufnimmt und dann die Datenbank mit lizenzierten Inhalten direkt von Verlagen ergänzt. Die Dimensions-Plattform kann zudem als bibliometrisches Bewertungsinstrument genutzt werden, was sie von Web of Science und Scopus unterscheidet, die in erster Linie bibliografische Daten mit begrenzten Analysewerkzeugen anbieten. Dimensions bietet teilweise kostenlosen Zugang zu seinem System sowie einen nichtkommerziellen Zugang zu seinen Daten über eine API-Schnittstelle.

OpenAlex

OpenAlex hält sich an Open-Source-Prinzipien und macht seinen Index von Daten – wie wissenschaftliche Arbeiten, Autor*innen und Institutionen – offen zugänglich. Dies geschieht über die Webanwendung via API und einen vollständigen lokalen Datenbank-Download-Snapshot für den Offline-Zugriff.

Initiative for Open Citations (I4OC)

Diese Initiative ermöglicht freien Zugang zu wissenschaftlichen Zitationsdaten. Die Daten sollen maschinenlesbar und unabhängig vom Format der Veröffentlichung  sowie nachnutzbar sein.

Institutswebseiten/Autor*innenwebseiten

Für bestimmte Fragestellungen werden Webseiten von Instituten und Autor*innen als Ergänzung herangezogen.

Google Scholar

Google Scholar ist eine Suchmaschine für die allgemeine Literaturrecherche wissenschaftlicher Dokumente von Google. Dazu zählen sowohl frei zugängliche Dokumente als auch kostenpflichtige Angebote. Google Scholar analysiert und extrahiert die in den Volltexten enthaltenen Zitate und erstellt daraus eine Zitationsanalyse. Allerdings sind die von Google Scholar generierten bibliometrischen Indikatoren inhaltlich intransparent und uneinheitlich aufbereitet (siehe hierzu einen Beitrag von Mark Dingemanse)

Bibliometrische Indikatoren verleiten zu Vergleichen, die aufgrund unterschiedlicher Publikations- und Zitationskulturen in verschiedenen Disziplinen und Forschungsfeldern zu falschen Schlüssen führen können. So wird in vielen naturwissenschaftlichen Fächern mehr publiziert als in den meisten geisteswissenschaftlichen Disziplinen, noch dazu in Form von Artikeln mit zahlreichen Co-Autor*innen. Im Vergleich mit Forschenden, die häufig in Form von Monographien veröffentlichen, werden die bibliometrischen Indikatoren damit unterschiedlich ausfallen - dabei liefern diese keinen Hinweis auf die wissenschaftliche Qualität der Publikation oder die Leistung der einzelnen Autor*innen. Zudem ist das für bibliometrische Analyse verwendete Datenmaterial nicht immer vollständig, die Datenbasis beeinflusst also die Ergebnisse.

Dies ist insbesondere problematisch, da bibliometrische Indikatoren zunehmend zur Leistungsbeurteilung herangezogen werden und über die wissenschaftliche Karriere von Forschenden entscheiden können. Wenn im Zuge einer solchen Beurteilung beispielsweise die Journal Impact Factor (JIF) der Zeitschriften aller Zeitschriftenartikel aus einer Publikationsliste einer Person addiert werden, um die wissenschaftliche Leistung einer Person einzuordnen, handelt es sich um eine unsachgemäße Anwendung dieses bibliometrischen Indikators, da der Journal Impact Factor ein zeitschriftenbezogener Indikator ist und keine Aussagen über einzelne Publikationen zulässt (siehe oben). Da solche Fehlinterpretationen in der Leistungsbeurteilung keine Seltenheit sind, werden bibliometrische Kennzahlen von Förderinstitutionen, Forschenden und Initiativen zunehmend skeptisch betrachtet.

Links zum Thema

Eine Grundkenntnis in bibliometrischen Verfahren und Indikatoren erlaubt Wissenschaftler*innen eine bessere und sachgemäße Einordnung bei der bibliometriebasierten Bewertung ihrer Forschungsleistungen. Von Interesse ist bei bibliometrischen Analysen auch der Erkenntnisgewinn, von wem und auf welche Art die Forschungsergebnisse rezipiert werden. Durch die Auswertung der zitierenden Kanäle (Nachrichten, wissenschaftliche Artikel, Tweets, Blogs, etc.) können Zielgruppen genauer definiert werden. Projekte wie Scite.ai beschäftigen sich darüber hinaus mit Möglichkeiten der Auswertung, ob eine Publikation eher zustimmend oder ablehnend diskutiert wird. Auch bei der Identifikation potenzieller Kooperationspartner*innen können bibliometrische Analysen weiterhelfen.

Auch wenn sich bibliometrische Indikatoren beeinflussen lassen – beispielsweise durch Selbstzitierungen – sollte sich das Verfassen einer wissenschaftlichen Publikation immer am Gegenstand, der Disziplin, sowie an guter wissenschaftlicher Praxis und der Verständlichkeit orientieren – und nicht nicht an bibliometrischer Optimierung.

Für die Sichtbarkeit der eigenen Publikationen, und um deren Zitationen zu erhöhen, sind die eindeutige Identifizierbarkeit des Publikationsmediums, der konkreten Publikation, der Autor*innen und deren institutionelle Zugehörigkeit (Affiliation) Voraussetzung. Dazu dienen eine vollständige und korrekte Angabe der Autorenschaft und Affiliation sowie persistente Identifikatoren (z.B. eine ORCID iD auf Personenebene und eine DOI auf Artikelebene). Ebenso bedeutsam für die Auffindbarkeit ist die Verwendung normierter Schlagwörter und die Wahl aussagekräftiger Titel.

Die Berechnung bibliometrischer Kennzahlen ist mitunter intransparent, die zugrundeliegenden Daten sind nicht immer bekannt und die Indikatoren teilweise manipulierbar. Daher gibt es zunehmend wissenschaftsinterne Bemühungen, die in der Wissenschaftsbewertung eingesetzten Indikatoren sachgemäß und verantwortungsvoll zu nutzen sowie den Fokus auf quantitative Indikatoren zugunsten qualitativer Bewertung zu verringern – kurz gesagt: Publikationen sollten weniger anhand von Zahlen und mehr anhand ihres Inhalts und ihrer Qualität sowie im Kontext ihrer Disziplin bewertet werden. Viele Fördermittelgeber, aber auch Initiativen aus der Forschung selbst und den forschungsnahen Dienstleistungseinrichtungen, haben hierzu mittlerweile eindeutige Positionen bezogen.

Die Haltung der Deutschen Forschungsgemeinschaft (DFG)

Seit 2019 ist es für Antragsteller*innen, die Fördermittel durch die DFG erhalten möchten, verpflichtend, die Leitlinien zur Sicherung guter wissenschaftlicher Praxis anzuerkennen und umzusetzen.

In ihrem Positionspapier zur Wissenschaftsbewertung betont die DFG die Relevanz eines verantwortungsvollen Umgangs mit bibliometrisch erhobenen Daten. In dem Papier wird explizit eine Bewertung des wissenschaftlichen Inhalts und nicht des Publikationsformats gefordert sowie auf die Berücksichtigung unterschiedlicher Fach- und disziplinspezifischer Publikationskulturen hingewiesen. Darüber hinaus soll in die Bewertung wissenschaftlicher Leistung einfließen, ob prozessübergreifende Sicherungsmaßnahmen eingehalten, die Zielgruppen erreicht oder ob Open-Access-Publikationsformate genutzt werden.

Die DFG hat im Jahr 2022 ein Maßnahmenpaket zum Wandel der wissenschaftlichen Bewertungskultur beschlossen und wird in diesem Zuge ab März 2023 für alle Förderprogramme unter anderem eine angepasste Lebenslaufvorlage vorschreiben, um qualitative Bewertungskriterien gegenüber quantitativer Kennzahlen zu stärken. So werden beispielsweise Indikatoren wie der h-Index nicht mehr abgefragt und spielen bei der potenziellen Bewilligung von Fördermitteln keine Rolle mehr.

San Francisco Declaration on Research Assessment (DORA)

Auch in der von 2012 stammenden Erklärung zur Forschungserhebung und -bewertung wird die Anwendung und Vermittlung guter wissenschaftlicher Praxis betont. Eine der Hauptforderungen sind die Abkehr vom Journal Impact Factor als Qualitätsindikator und die transparente Offenlegung von zur Erhebung genutzten Indikatoren. Die Erklärung wurde bisher von mehr als 21.700 Individuen und Organisationen in 158 Ländern unterzeichnet (Stand Mai 2022), unter anderem von der DFG.

Leidener Manifest

Die im Leidener Manifest postulierten zehn Grundsätze sollen dazu dienen, Metriken und bibliometrische Kennzahlen entsprechend einer vorher festgelegten Zielsetzung zu verwenden. Erhobene Daten und quantitative Kennzahlen sollen dazu dienen, das Urteilsvermögen in Bezug auf eine Forschungsbewertung zu unterstützen, diese aber nicht alleinig bestimmen. So wird zum Beispiel die Ergänzung quantitativer Kennzahlen um qualitative Kriterien gefordert. Außerdem sollen verwendete Daten transparent offengelegt und die entsprechenden Indikatoren regelmäßig aktualisiert werden.

The Metric Tide

In diesem Review von 2015 werden Empfehlungen für unterschiedliche Stakeholder formuliert. Diese basieren auf Prinzipien für einen verantwortungsvollen Umgang mit Metriken, wie zum Beispiel Diversität und Reflexivität.

Links zum Thema