• HOME
  • 독일교육연구정보
http://hermes.zeit.de/pdf/archiv/2005/08/B-Uni-Ranking.pdfWer meldet die meisten Patente an, wo wird erfolgreich geforscht und wohin fließen die meisten Drittmittel? Das neue Forschungsranking des Centrums für Hochschulentwicklung (CHE) bewertet die Leistung der Universitäten. Solche Ranglisten verändern den Wissenschaftsbetrieb

Von Martin Spiewak
  
Wem gehört Albert Einstein? Darf die Freie Universität (FU) Berlin das Genie in ihre akademische Ahnenreihe stellen, oder beansprucht die Humboldt-Universität (HU) Einstein zu Recht für sich? Im vergangenen Jahr lieferten sich die Berliner Hochschulspitzen einen bizarren Streit darum, welche der beiden Universitäten sich mit Einstein und zwei Dutzend weiteren Nobelpreisträgern schmücken darf, die vor dem Zweiten Weltkrieg an der damaligen »Berliner Universität« geforscht und gelehrt hatten.

Die Kontroverse um das Erbe hatte einen aktuellen Hintergrund. Zum zweiten Mal kürte ein Ranking der Jiao-Tong-Universität aus Shanghai die »Top 500 World Universities«. Beim ersten Mal war die FU noch auf Platz 95 gelandet – nun fand sie sich plötzlich 100 Plätze weiter hinten. Dauergegner Humboldt dagegen stieg steil auf. Der Grund für die wundersame Verschiebung waren ebenjene Nobelpreisträger. Bei ihrer ersten Erhebung hatten die Shanghaier Ranglistenschreiber sie als einen Qualitätsindikator der FU zugesprochen. Ein Jahr später fanden sich die Ausnahmewissenschaftler in der Leistungsbilanz der Humboldt-Universität wieder – auf Intervention der HU in Shanghai.

Ob zwischen Berlin-Mitte und Dahlem oder München und Heidelberg: Die deutschen Universitäten sind im Wettbewerbsfieber. Vor wenigen Jahren noch hätte es keinen deutschen Universitätspräsidenten interessiert, was chinesische Hochschulforscher (»Jiao-wie-bitte-Universität?«) über die Qualität seiner Hochschule denken. Bereits der Versuch, lang verweste Nobelpreisträger als Gütesiegel heutiger Forschung heranzuziehen, hätte jeden Leistungsvergleich disqualifiziert. Heute ist im akademischen Konkurrenzkampf jede gute Nachricht recht. Und so jubelten Universitäten in Bayern und Baden-Württemberg über einen »Spitzenplatz im Shanghai-Ranking« – auch wenn die erste deutsche Universität, die TU München, erst auf Rang 45 auftaucht.

Mit immer größerem Aufwand wird die Arbeit der Professoren getestet

Das Gleichmaß hat als Ordnungsprinzip der deutschen Hochschullandschaft ausgedient, so wie schon seit langem in Frankreich oder England, wo Elite zum Alltag zählt. Offiziell darf sich zwar immer noch jeder deutsche Professor als Koryphäe seiner (Unter-)Disziplin fühlen und jede Universität als Stätte der Spitzenforschung. Nur daran glauben mag niemand mehr, weder in der Öffentlichkeit noch in der Politik, ja nicht einmal in den Hochschulen selbst. Das hat endgültig der geplante Elitewettbewerb der Bundesregierung gezeigt. Auch wenn das akademische Casting (»Brain up«) wegen des Föderalismusgezänks zwischen Bund und Ländern auf Eis liegt: Viele Universitäten haben ihre Bewerbungsschreiben, mit denen sie sich von der Konkurrenz abheben wollen, »bereits in den Schubladen«, weiß Ernst-Ludwig Winnacker, Präsident der Deutschen Forschungsgemeinschaft (DFG).

Den Boden für das neue Wettbewerbsdenken hat eine ganze Reihe nationaler und globaler Rankings bereitet. Mit immer größerem Aufwand testeten sie in den vergangenen Jahren die Ergebnisse des professoralen Strebens. Anfangs fragten die – meist von Zeitschriften veröffentlichten – Leistungsvergleiche hauptsächlich nach der Zufriedenheit der Studenten mit Vorlesungen oder Bibliotheken. »Wohlfühlrankings«, konnten Kritiker da noch spotten. Zunehmend jedoch gerät das andere Kerngeschäft der Universitäten in den Blick, die Forschung.

In dieser Woche legt das Centrum für Hochschulentwicklung (CHE) – das von der Bertelsmann Stiftung und der Hochschulrektorenkonferenz getragen wird – zum dritten Mal sein Forschungsranking vor (siehe folgende Seiten). Es zählt, welche Forschungsgelder die einzelnen Fakultäten an Land ziehen konnten und wie viele Fachaufsätze und Bücher ihre Professoren veröffentlichen. Patente und Promotionen fließen ebenso in das Profil ein wie der Ruf der Forscher in der Community. Die ZEIT wird diesen ausführlichen Forschungsvergleich von diesem Jahr an regelmäßig vorstellen – wie auch das Hochschulranking des CHE, das sich an Studenten und Abiturienten richtet (und bislang vom stern veröffentlicht wurde).

Die Erhebungen des CHE gelten als die gründlichsten und aussagekräftigsten in Deutschland – doch die einzigen sind sie nicht. Eine ähnliche, wenn auch weniger differenzierte Leistungsschau erschien vergangenes Jahr im Focus. Und noch dieses Jahr wird das Institut für Forschungsinformation und Qualitätssicherung der Deutschen Forschungsgemeinschaft seine Arbeit aufnehmen. Die neue Einrichtung soll das Forschen überwachen und das DFG-Förderranking (siehe ZEIT Nr. 28/03) unterstützen, mit dem der Hauptsponsor deutscher Forschung regelmäßig auflistet, welche Universitäten die meisten Gelder erhalten.

Dem Wissenschaftsrat ist dies nicht genug. Das wichtigste Gremium der Politikberatung in Hochschulfragen hat im November empfohlen, die deutschen Forschungsstätten alle sechs Jahre von der Archäologie bis zur Zahnmedizin durch Fachwissenschaftler benoten zu lassen. Den Anfang sollen Pilotstudien in den Fächern Soziologie und Informatik machen.

Evaluationen stehlen den Wissenschaftlern Zeit fürs Denken

Schon beklagen die Professoren eine galoppierende Evaluationitis; die Flut von Erhebungen und Begutachtungen würde ihnen die Zeit für die Forschung stehlen – also für ebendas, was die Bewertungen kontrollieren sollen. Von einer »Hyperaktivität« spricht auch der Rankingexperte Stefan Hornbostel von der Universität Dortmund. Allerdings folge diese auf »eine lange Phase der kompletten Resistenz gegenüber jeder Form der Forschungsevaluation«.

Finanzierten früher Staat und Gesellschaft ihren Universitäten die Professoren und Hörsäle, ohne dafür Rechenschaft zu verlangen, wird nun gemessen und gerechnet, gerankt und gelistet, belohnt und bestraft, was die Daten hergeben. So kann es vorkommen, dass ein einzelner Fachbereich sowohl eine hochschulinterne Evaluation als auch eine landesweite Erhebung über sich ergehen lassen muss – und zugleich gefordert ist, Dutzende von Fragen des Centrums für Hochschulentwicklung fürs nächste Ranking zu beantworten. Sollte dieser Fachbereich zudem noch einen Bachelor-Studiengang einrichten, steht eine weitere Gutachterkommission ins Haus, weil sämtliche neue Studienabschlüsse akkreditiert werden müssen – natürlich aufgrund einer Bewertung. »Da die Evaluateure und Gutachter wiederum selbst Fachwissenschaftler sein müssen, verdoppelt sich die Arbeit für viele Professoren«, sagt Hornbostel.

Die Klagen der Forscher über die Zusatzarbeit sind daher verständlich – auch wenn mancher Professor mit dem empörten Hinweis, auch Einstein oder Galilei seien niemals evaluiert worden, weit übers Ziel hinausschießt. Denn natürlich gibt es Qualitätskontrollen schon, solange Universitäten existieren. Wer sich um eine neue Professur bewirbt, muss Publikationen vorlegen und Gastvorträge halten. Wer externe Forschungsgelder beantragt, muss sich Begutachtungen stellen.

Der Preis für mehr Autonomie heißt stärkere Kontrolle

Doch allein auf diese inneren Spielregeln des akademischen Systems mögen viele Wissenschaftsmanager und Politiker nicht mehr vertrauen. Dazu haben sich die gesellschaftlichen Rahmenbedingungen zu sehr verändert. Zum einen zieht sich die Ministerialbürokratie immer stärker aus der Feinsteuerung der Hochschulen zurück. Mehr Autonomie im Gegenzug für mehr Kontrolle heißt – ähnlich wie in der Schule – der New Deal der Wissenschaft. Das bedeutet: Wenn den Universitäten in Zukunft die Ernennung der Professoren, die Verteilung der Gelder oder die Promotionsordnungen selbst überlassen bleiben sollen, müssen sie zugleich beweisen, dass ihre Qualität stimmt.

Zum anderen fragt die Öffentlichkeit unter dem Druck knapper Mittel zu Recht nach den Früchten steuerfinanzierter Forschung. »Es gibt kein Verständnis mehr für Hochschullehrer, die sich unter Berufung auf Freiheit von Forschung und Lehre weigern, über ihre Arbeit Rechenschaft abzulegen«, sagt die Generalsekretärin der Hochschulrektorenkonferenz (HRK) Christiane Ebel-Gabriel.

So wird sich in Zukunft kein Forscher und keine Hochschule mehr den Professorenprüfern entziehen können. Mittlerweile zeitigen die Hochschulvergleiche bereits ganz konkrete Folgen, nicht nur für die Reputation einer Universität, sondern auch für ihr Budget. Alle Bundesländer knüpfen inzwischen zumindest einen Teil ihrer Hochschulzuschüsse an deren Leistungen, Rheinland-Pfalz sogar bis zu 90 Prozent. Das meiste Geld können die Universitäten einstreichen, wenn sie ihre Studenten zügig zum Examen führen. Aber auch für hohe Drittmitteleinnahmen, viele Promotionen und – etwa in Berlin – für den Publikationsfleiß der Professoren gibt es zusätzliches Geld vom Staat. Die Summen sind noch weit von den Erträgen ausländischer Belohnungssysteme entfernt. Für eine Medizinfakultät in Finnland bringt ein einziger Artikel ihrer Forscher in einem renommierten Wissenschaftsjournal wie Nature mehrere tausend Euro extra. Und es geht auch andersherum: In Großbritannien werden nach einer negativen Beurteilung im Research Assessment Exercise (RAE) ganze Institute von staatlichen Forschungszuschüssen abgeschnitten.

In England zeigen sich denn auch am deutlichsten die negativen Seiten einer exzessiven Wissenschaftsbegutachtung. »Gute Evaluationsergebnisse zu bekommen droht am Ende wichtiger zu werden, als gute Forschung zu betreiben«, warnt der Brite Richard Brook, der selbst viele Gutachterkommissionen geleitet hat. Da werden Forschungsergebnisse in die kleinste publizierbare Einheit zerstückelt, um möglichst viele Fachaufsätze vorweisen zu können. Da wird in Drittmittelprojekten tunlichst jedes Forschungsrisiko vermieden – wobei gerade das gute Forschung auszeichnen sollte.

In Deutschland ist diese Gefahr noch gering. Gerade einmal 1,5 Millionen Euro konnte sich die FU Berlin zum Beispiel 2004 dazuverdienen, ein halbes Prozent des Budgets. Der Trend jedoch geht eindeutig in Richtung »leistungsabhängige Mittelvergabe« – auch in den Hochschulleitungen. Trendsetter ist die Universität Konstanz mit ihrem »Drittmittelbelohnungssystem«. Seit 1993 legt die Hochschule Geld drauf, wenn ein Professor besonders erfolgreich beim Einwerben von Forschungsmitteln ist. Die TU Darmstadt, ausgestattet mit einem besonderen Autonomiestatus, verteilt seit Beginn dieses Jahres sogar rund die Hälfte ihrer Mittel nach Leistung. Andere Hochschulen wie die FU Berlin veröffentlichen jedes Jahr im Jahresbericht die Namen ihrer »Drittmittelstars«, als gute Beispiele zur Nachahmung empfohlen.

Professoren können künftig durch Leistung auch ihr Gehalt aufbessern

Solche pädagogischen Maßnahmen sind deshalb wichtig, weil sich die Forschungsfinanzierung in den vergangenen 20 Jahren entscheidend gewandelt hat: Während das Budget für die Grundausstattung stagniert, wachsen die im Kampf mit anderen Forschern einzuwerbenden Drittmittel. »Allein aus dem Geld, das die Wissenschaftsministerien überweisen, lässt sich in naturwissenschaftlichen Fächern keine Forschung mehr betreiben«, analysiert Hochschulforscher Hornbostel.

Seit Anfang dieses Jahres besteht zudem die Möglichkeit, dass fleißige Professoren nicht nur Extrageld für ihre Forschung erhalten, sondern zudem ihr persönliches Gehalt aufbessern. Nicht mehr das Alter – wie bei Beamten typisch – soll künftig belohnt werden, sondern die Leistung. Auch hier bleiben die finanziellen Spielräume knapp, sind die Sonderzulagen von wenigen hundert Euro eher eine symbolische Anerkennung. »Doch das kann sich ändern«, prophezeit HRK-Generalsekretärin Ebel-Gabriel.

Die Platzierung in Rankings dagegen tauge nicht, um Geld zu verteilen, warnt CHE-Chef Detlef Müller-Böling – was nicht heißt, dass sie von den Universitäten nicht ernst genommen würden. Kaum sind die Ergebnisse bekannt, bejubeln die Sieger ihre guten Platzierungen in Pressemitteilungen. Selbst wenn sie weniger gut abschneiden, finden sie – wie Kandidaten nach einem verlorenen Wahlkampf – in der Menge der Einzelergebnisse doch noch aufmunternde Botschaften und stellen sie heraus. Diese Erfahrung machte zum Beispiel die Deutsche Telekom Stiftung, die kürzlich zwei Stiftungslehrstühle vergeben wollte und dazu mit verschiedenen Hochschulen sprach. Nahezu alle Unipräsidenten hätten dabei ihre Spitzenränge in diversen Rankings als Beweis für die Forschungspotenz ihrer Hochschule angeführt, berichtet der Vorsitzende der neuen Stiftung, Klaus Kinkel.

Dass sich aus Erfolgen im Schönheitswettbewerb der Forschung politisches Kapital schlagen lässt, haben auch die Parteien erkannt. Im Föderalismusstreit um die Zuständigkeit für die Bildung weisen die Wissenschaftsminister Thomas Goppel und Peter Frankenberg immer wieder auf die vielen oberen Rankingplätze der bayerischen und baden-württembergischen Landeshochschulen hin, frei nach dem Motto: Wofür brauchen wir den Bund? Unsere Unis sind doch jetzt schon Spitze!

Innerhalb der Hochschulen entfalten die Leistungsschauen ebenso ihre Wirkung. »Wir schauen uns die Rankings sehr genau an und besprechen die Ergebnisse mit den Fachbereichen«, berichtet etwa der Präsident der TU Darmstadt, Johann-Dietrich Wörner. Insbesondere wenn die TU schlecht abschneide, werde Ursachenforschung betrieben: Wie aussagekräftig ist das Ranking? Haben die Professoren eine Strategie, um in Zukunft besser abzuschneiden? Umgekehrt nutzen die Fachbereiche die Hochschulvergleiche im Kampf um die Mittel gegenüber der Hochschulleitung, weiß Stefan Hornbostel: »Dann heißt es, wir können unsere gute Position im Ranking nur halten, wenn wir mehr Geld bekommen.«

Insofern geben die Rankings der deutschen Hochschullandschaft ein neues Gesicht. Sie beschleunigen die Teilung in ein höchst differenziertes System von international konkurrenzfähigen Spitzeneinrichtungen einerseits und solchen, die sich auf den regionalen Arbeitsmarkt konzentrieren andererseits; die Unterscheidung von Forschungsfakultäten und solchen Fachbereichen, die ihre erste Aufgabe in der Lehre sehen. Dass solche Trennlinien nicht mehr nur zwischen Fachhochschulen und Universitäten verlaufen, belegen die verschiedenen Leistungswettbewerbe bereits heute. Denn sowohl im Förderranking der DFG wie auch im Forschungsvergleich des CHE zeigt sich: Gerade ein Viertel der Universitätsfakultäten leistet 50 Prozent der Forschung.
번호 제목 글쓴이 날짜 조회 수
227 CeBIT 2005모빌폰 경향, Handy-Highlights der Messe VeKNI 2005.03.14 13217
226 독일언론의 삼성 디카 소개-전화벨울리는 카메라 Klingelnde Kamera VeKNI 2005.03.11 15525
225 독일언론 현대 쏘나타 소개-HYUNDAI SONATA, Träger Typ VeKNI 2005.03.10 14634
224 소니의 반격?-MP3플레이어 시장-Sony startet Flash-Offensive VeKNI 2005.03.09 16834
223 TV개발 동향---Flimmerfrei, klar, chaotisch VeKNI 2005.03.07 14413
222 3차원 모니터--3D-Bildschirm statt 3D-Brille VeKNI 2005.03.04 21297
221 IT-STIMMUNGS-BAROMETER: Der Frühling kommt VeKNI 2005.03.02 11695
220 CEBIT 2005 경향---Kirmes der Konzepte VeKNI 2005.02.24 11905
219 컬러 모니터 시장 동향-Schlank, brillant, billig VeKNI 2005.02.24 14034
218 헐리우드는 독일차를 좋아해 VeKNI 2005.02.23 14819
217 독일자동차 차종별 운전자들의 정치성향---Citroën-Fahrer wählen vorwiegend SPD VeKNI 2005.02.23 16037
216 아시아 자동차회사들이 작년에 좋은 성과---Asiatische Autobauer sind Gewinner des Jahres VeKNI 2005.02.22 12093
215 하팍로이드 선박 발주--Hapag-Lloyd bestellt drei Riesenfrachter VeKNI 2005.02.22 13042
214 대우자동차에 관한 보도---Koreaner unter den großen Marken VeKNI 2005.02.22 17678
» 독일대학 연구비 순위에 관해---Neues aus der Ranking-Schmiede VeKNI 2005.02.20 15141
212 인간이 해양온도 상승을 유발한다는 새로운 증거-Meereserwärmung vom Menschen verursacht VeKNI 2005.02.20 15301
211 국산 임베디드 SW 첫 수출 '쾌거' VeKNI 2005.02.19 13237
210 음악을 잉태한 수학 VeKNI 2005.02.17 19898
209 State of the Art in Grid Generation VeKNI 2005.02.11 34171
208 차세대 CPU 전쟁--Cell gegen Doppel-Pentium VeKNI 2005.02.11 11688
CLOSE