Den Auftakt der Veranstaltung bildeten zwei Impulsvorträge: Prof. Dr. Dr. h.c. Margit Osterloh von der Universität Zürich nahm in Anlehnung an ein Modell von LeGrand die Frage nach dem zugrunde gelegten Professionsbild zum Ausgangspunkt ihrer Überlegungen. Werden Wissenschaftlerinnen und Wissenschaftler eher als auserwählte „Könige“, als ernannte, kämpfende „Ritter“ oder als vertrauensunwürdige „Gauner“ gesehen? Davon sei abhängig, wie und von wem Leistungsmessung in der Wissenschaft gefordert sowie gestaltet werde.
Peer-Reviews nicht der Königsweg
Margit Osterloh verwies auf Forschungsergebnisse, die Peer-Reviews nur geringe Reliabilitäts- und Validitätswerte bescheinigen. Peer-Reviews seien demnach – entgegen einer verbreiteten Praxis – als vorrangige Leistungsindikatoren für gute Wissenschaft unzureichend. Vielmehr sei auch auf qualitative Kriterien sowie öffentlich nachvollziehbare, legitimierte Prozesse bei der Leistungsbewertung in der Wissenschaft zu achten, um gegenseitiges Vertrauen (der Bewerteten und der Bewerter) zu schaffen oder zu erhalten.
Was wird bewertet: Quantität oder Qualität
Auch Prof. Dr. Dieter Lenzen ging in seinem Impulsvortrag auf die Notwendigkeit ein, Voraussetzungen und Folgen von Leistungsmessungen in der Wissenschaft kritisch zu reflektieren: Quantifizierenden Aussagen – wie beispielsweise Impactfaktoren – seien stets „Stellvertreterdaten“, die eigentlich Aussagen über die Qualität von Leistung machen sollen. Ebenso sei die methodische Orientierung an den allgemeinen wissenschaftlichen Gütekriterien Objektivität, Reliabilität und Validität geboten, wenn eine angemessene Beurteilung von Leistungen erfolgen soll.
Präsident Lenzen hob zudem hervor, dass Rankings – also summierte, quantitative Leistungsvergleiche – der Gefahr unterliegen, Fehlinterpretationen zu provozieren, wenn Kontextfaktoren nicht ausreichend berücksichtigt werden. Leistungsvergleiche, so Lenzen weiter, seien nur dann sinnvoll, wenn sie zu neuen und guten Problemlösungen für die Gesellschaft führten.
Welche Kriterien würden Sie zur Leistungsmessung heranziehen
In Kleingruppen wurde im Anschluss an die Impulsvorträge weiter diskutiert: Welche Kriterien würde ich in einem Selbstbericht zur Beurteilung meiner eigenen Leistung heranziehen? Und: Wäre ich Mitglied einer Evaluationskommission zur Beurteilung anderer Wissenschaftler und Wissenschaftlerinnen: Woran würde ich deren Leistung festmachen wollen?
Neben konkreten Vorschlägen für alternative Kriterien zur Leistungsbeurteilung wissenschaftlicher Qualität – wie bspw. das Weiterentwicklungspotenzial (Innovativität) von Forschungsthemen, Interdisziplinarität (Teamleistung) oder der Transfer von Projektergebnissen in die Gesellschaft (zivile Relevanz) – wurde trotz kontroverser Diskussionen einhellig auf Partizipation als relevanten Prozessfaktor verwiesen: Die Beteiligung der Bewerteten an der Kriteriendefinition sei wesentlich.
Ziel, Design und Gegenstand von Evaluationen seien von Fall zu Fall transparent zu bestimmen und auch im Hinblick auf die Tauglichkeit für eine Governance zu hinterfragen: Inwiefern generiert permanente Leistungsbeurteilung Demotivation und unverhältnismäßigen Mehraufwand, der vom Wesentlichen abhält: Forschen, Lehren, Bilden – zur Mitgestaltung einer „guten“ Zukunft?
C. Schmitt