Indice
Zentrales Ziel der SEVAL Arbeitsgruppe Hochschulentwicklung und Evaluation ist es, die Professionalisierung von Evaluierenden im Hochschulbereich zu unterstützen. Dies soll durch verstärkten Austausch über gute Evaluationspraxis, die Erarbeitung gemeinsamer theoretischer Grundlagen sowie das Ausloten zukunftsträchtiger Innovationen erfolgen. In einer ersten Netzwerktagung an der Zürcher Hochschule der Künste (SEVAL@ZHdK) wurden Gelingensbedingungen und Qualitätsmerkmale hoher Rücklaufquoten identifiziert. Zudem wurde anhand einer praktischen Übung das Teaching-Analysis-Poll, welches zur qualitativen Erhebung und anschliessenden quantitativen Beurteilung von themenspezifischen Rückmeldungen genutzt werden kann, eingeführt. Informationen dazu sowie zu weiteren Aktivitäten der Arbeitsgruppe sind auf der entsprechenden SEVAL-Internetseite einsehbar (Arbeitsgruppe Hochschulentwicklung und Evaluation, 2025).
Als Auftakt in die Grundlagenarbeit wurde eine zweite Netzwerktagung angesetzt, welche an der Berner Fachhochschule durchgeführt wurde (SEVAL@BFH). Ziel war es, die Definition von Evaluation aufzufrischen und zudem eine Abgrenzung zu weiteren Disziplinen im Qualitätsbereich von Hochschulen (Q-Bereich, bspw. Qualitätsmanagement, Hochschulentwicklung, Bildungsmonitoring, Akkreditierung …) vorzunehmen (siehe Kapitel 2). Weiter sollte in einem Workshop festgestellt werden, in welchem Zusammenhang die Bereiche zueinanderstehen, wer auf welche Inhalte fokussiert und inwiefern eine Zusammenarbeit an einem gemeinsamen Ganzen möglich bzw. erstrebenswert ist (siehe Kapitel 3). In einem nächsten Schritt wurde am Beispiel der Berner Fachhochschule aufgezeigt, welche Aufgaben im Q-Bereich der Hochschule anfallen und wie die Aufgaben, auf die Organisationseinheiten verteilt sind (siehe Kapitel 4). Schliesslich bedarf die Entwicklung von Qualität an Hochschulen der Dokumentation von Informationen, Daten und Ergebnissen. Hierzu wurden Visionen des zukünftigen Datenmanagements diskutiert (siehe Kapitel 5). Resultierende Erkenntnisse sowie das weitere Vorgehen der SEVAL Arbeitsgruppe Hochschulentwicklung und Evaluation in der Unterstützung der Professionalität von Evaluationen im Hochschulbereich werden in Kapitel 6 dargelegt.
Eine aktuell überarbeitete Definition der Evaluation im Bildungsbereich stellte Lars Balzer (Eidgenössische Hochschule für Berufsbildung) vor. Durch die Modellierung von Aufgaben und Handlungsfeldern führte Tanja P. Schnoz-Schmied (Pädagogische Hochschule Graubünden, Co-Leitung SEVAL Arbeitsgruppe Hochschulentwicklung und Evaluation). Sara Wyler (Hochschule der Künste Bern, Departement der Berner Fachhochschule) stellte die Gegebenheiten an der Berner Fachhochschule vor und entwarf eine Grundlage zur Diskussion eines zukunftsträchtigen Datenmanagements. Diskussionen wurden moderierend begleitet von Jennifer Hofmann (Universität Zürich, Co-Leitung SEVAL Arbeitsgruppe Hochschulentwicklung und Evaluation). Der Austausch und die Diskussion wurden durch rund 30 Tagungsteilnehmende bereichert.
Lars Balzer befindet sich zusammen mit Wolfgang Beywl im Schreibprozess der Neuauflage ihres Buches «evaluiert – erweitertes Planungsbuch für Evaluationen im Bildungsbereich» (Balzer/Beywl, 2018). Bei Gelegenheit präsentieren sie überarbeitete Auszüge einem Fachpublikum mit der Absicht, Anregungen aufzunehmen und ggf. weiterführend zu berücksichtigen. In der Neuauflage wird die Definition im Kontext aktueller Diskussionen adaptiert und den Beschreibungen von angrenzenden Disziplinen der Evaluation wird ein eigenes Kapitel gewidmet. Die folgenden Ausführungen greifen Argumentationen der Neuauflage auf und dieser damit vor. Die Abschnitte 2.1 bis 2.5. fassen die Darstellungen von Balzer & Beywl, durch sie gegengelesen, zusammen.
Etymologisch ist Evaluation auf das lateinische Wort valor (Wert) bzw. valere (bei Kräften sein, wert sein, gültig sein) zurückzuführen. In der Evaluation geht es darum, den Wert einer Sache zu bestimmen. Allerdings gibt es genauso viele Definitionen, wie es Evaluierende gibt (vgl. Franklin/Trasher, 1976) und es gibt ebenso viele Evaluationsgegenstände, wie es Substantive in einem Wörterbuch gibt (vgl. Scriven, 1981). Die Verwendung des Begriffs Evaluation im Alltag ist unspezifisch (Kromrey, 2001), was die Notwendigkeit einer disziplin- bzw. professionsbezogenen Spezifizierung unterstreicht. In einer Evaluation wird auf Basis klarer Kriterien der Wert einer Sache bestimmt (Fitzpatrick et al., 2012). Sie dient bei Anwendung sozialwissenschaftlicher Methoden (Döring, 2023) mit empirischen Ergebnissen einem «spezifischen Erkenntnis- und Verwertungsinteresse» (Kromrey, 2001, S. 112). Diese Anforderungen an eine professionelle Evaluation machen deutlich, dass zur Durchführung einer Evaluation Expertise notwendig ist (Stockmann, 2022).
In der aktuellen Version der überarbeiteten Definition von Evaluation der dritten Auflage ihres Lehrbuches betonen Balzer und Beywl sowohl deren wissenschaftlichen als auch dienstleistenden Charakter. Die Autoren reagieren damit auf aktuelle internationale Diskussionen, welche den Charakter von Evaluation als Wissenschaft stärken.
Als Alleinstellungsmerkmal auch hinsichtlich der im Folgenden dargestellten Disziplinen betonen die Autoren den Fokus von Evaluation auf die systematische Bewertung. Die Bewertungskriterien werden mit verschiedenen Stakeholdergruppen diskutiert und transparent gemacht. Grundsätzlich nimmt die Evaluation eine unabhängige Rolle ein, welche alle Parteien in ihren Informationsinteressen unterstützt und über demokratische Aushandlungsprozesse Möglichkeiten der Einigung schafft. Evaluationen begleiten bzw. bewerten Projekte entsprechend ihrem Reifegrad (vgl. Evaluationszweck – Evaluationsfunktion bzgl. Programmreife, Balzer/Beywl, 2018). Des Weiteren sind Evaluationen in der Regel zeitlich befristet.
Im Rahmen des Controllings werden oft Daten des Rechnungswesens als betriebswirtschaftliche Kennzahlen herangezogen, um organisationale Prozesse zu planen, zu steuern und zu kontrollieren. Es wird ein Soll-Ist-Vergleich angestellt. Es geht darum, eine Organisation unternehmerisch zu führen und Optimierungsmöglichkeiten anhand aussagekräftiger Kennzahlen sowie prägnanter Kosten-Nutzen-Analysen zu identifizieren. Das Controlling wird kontinuierlich betrieben (vgl. Schöni, 2023).
Geht es bei Evaluation darum, den Wert einer Sache zu bestimmen, fokussiert das Qualitätsmanagement auf die Stabilisierung/Optimierung der Struktur- und Prozessqualität einer Organisation. Dies ist sein Ansatzpunkt, um das Leiten und Lenken einer Organisation bzgl. Qualität zu unterstützen. Zur Orientierung dienen konzeptionelle Rahmenmodelle oder auch normbezogene Checklisten (European Foundation for Quality Management EFQM oder Qualitätsnorm ISO 9000ff), welche auch zur Akkreditierung/Zertifizierung genutzt werden können. Das Qualitätsmanagement wird langfristig aufgesetzt und kontinuierlich durchgeführt. Bildungsorganisationen sind oft verpflichtet, ein professionelles Qualitätsmanagementsystem aufzubauen (vgl. Gnahs/Quilling, 2019).
Im Rahmen der Akkreditierung von Hochschulen wird deren Qualitätsmanagement überprüft. Ein positives Ergebnis bzgl. Akkreditierung ist für die Hochschulen Voraussetzung für öffentliche Finanzierung. Das Hauptinteresse gilt der Aufbau- und Ablauforganisation einer Hochschule, welche qualitätsvolles und sich-ständig-verbesserndes Lehren und Forschen ermöglichen sollen. Wichtige Prämisse ist, dass die Regelkreise von Aktivitäten angefangen bei der Planung, umgesetzt in der Durchführung, durch passende Verfahren geprüft und schliesslich durch eine daten- und expertisebasierte Adaptation geschlossen werden. In diesem Zusammenhang werden auch Prozesse der Evaluation sowie des Controllings begutachtet. Die Begutachtung wird teilweise auf entsprechende Datenquellen abgestützt. Nach Vorgaben von Akkreditierungsagenturen oder Zertifizierern wird die Ist-Situation beschrieben.
Bildungsmonitoring betrifft oft die Makroebene (bspw. Abschlussquoten an Hochschulen im nationalen Überblick). Wie in der Evaluation werden sozialwissenschaftliche Methoden eingesetzt und in hohem Masse auch in Geschäftsprozessen der Organisation anfallende Daten oder auch learnings analytics. Allerdings werden bevorzugt über lange Zeiträume standardisierte Mess- und Datenerhebungsmethoden eingesetzt, was in der Evaluation eher selten der Fall ist. Erhebungen erfolgen systematisch und kontinuierlich über mehrere Erhebungszeitpunkte. Dabei bleibt das (Bildungs-) Monitoring im Rahmen des Geplanten. Vertiefende Fragestellungen werden lediglich dann gestellt, wenn gravierende Schwierigkeiten offenbar werden (Arbeitskreis Entwicklungspolitik und Humanitäre Hilfe der DeGEval, 2023, 2023). Allerdings werden keine unmittelbaren Handlungskonzepte zur Verfügung gestellt (Netzwerk Bildungsmonitoring, 2023). Bewertungskriterien werden nicht ausgehandelt.
Im Qualitätsmanagement wird Evaluation hauptsächlich als Selbstevaluation verstanden. Angaben werden anhand von Dokumenten, Daten und Evaluationsergebnissen (oft Umfragen mit Einschätzskalen) belegt. So wird aus dieser Perspektive Evaluation bspw. «als einer von acht Wegen zur Qualität» gesehen (Strätz, 2019, Kapitel 8). Evaluation ist durch das Qualitätsmanagement gesteuert, arbeitet diesem zu und stellt benötigte Daten und Informationen bereit.
Evaluationen können zwar auch als Datenquellen für das Monitoring genutzt werden. Allerdings zeichnet sich Evaluation durch vertiefende Fragestellungen, responsiv ausgehandelte Bewertungskriterien sowie einen stärkeren Fokus auf Resultate (Outcomes) und Prozesse/Interventionen aus. Aus Sicht des (Bildungs-) Monitorings ist der Fokus von Evaluationen zu spezifisch auf einzelne Projekte/Programme gerichtet, was deren Aussagekraft für die Gesamtorganisation beschränkt.
Auch aus der Perspektive des Controllings stellt Evaluation ein in seinem Leistungsspektrum begrenztes Hilfsmittel dar (Hummel, 2001). Gemäss einigen Vertretern des Controllings beschreibt Evaluation Daten, welche durch das übergeordnete Controlling bewertet werden (Krieger/Dubsky/Hilber, 2020). So wird Evaluation als Controlling-Element gesehen (Schöni, 2023).
Zusammengenommen wird Evaluation damit als «kleine Schwester» des (Bildungs-) Monitorings gesehen und sowohl vom Qualitätsmanagement wie auch vom Controlling als Werkzeug verstanden. Die Sicht der Evaluation ist jedoch breiter: Auch wenn Evaluationsergebnisse zuweilen als Datenquelle für das Controlling, das Qualitätsmanagement, die Akkreditierung und auch für das Monitoring genutzt werden können, liegt der Zweck der Evaluationen jenseits dieser zudienenden Funktion bzw. geht darüber hinaus. Während die angrenzenden Disziplinen vorwiegend kontrollierenden Charakter haben, sieht sich die Evaluation als eigenständiger wissenschaftlicher Ansatz, welcher Prozessnutzen sowie Ergebnisnutzen erzeugt, der sowohl zur Rechenschaftslegung (summativ) als auch zur Verbesserung/Entwicklung (formativ) beitragen kann. Alleinstellungsmerkmale der Evaluation als Disziplin sind ausgeprägte Verfahren der multiperspektivischen Klärung von Bewertungskriterien sowie deren Anwendung für systematische, intersubjektiv nachvollziehbare und damit kritisierbare Bewertungsverfahren. Zudem erlauben die Feldspezifität sowie der Fokus auf die Outcomes und Prozesse in einzigartiger Weise, sowohl Weiterentwicklung zu unterstützen als auch Innovation zu fördern.
Spezifisch ist zudem, dass sich Evaluierende allen Anspruchsgruppen einer Evaluation in gleichem Masse verpflichtet fühlen (Allparteilichkeit) und dabei idealerweise unabhängig agieren. Die angrenzenden Disziplinen im Q-Bereich beschäftigen sich vornehmlich mit der Kontrolle von Zielwerten und agieren v. a. als verlängerter Arm der Leitungsebene. Weiter stellt Partizipation ein zentrales Element der Evaluation dar (Cousins, 2003). Soweit möglich werden Anspruchsgruppen in den gesamten Evaluationsprozess einbezogen, so dass Inhalte an feldspezifischer Bedeutsamkeit gewinnen und Evaluationsergebnisse in die Erarbeitung strategischer Ziele eingebettet werden können. Die Partizipation unterstützt die Sichtbarmachung von unterschiedlichen Werten und das Auffinden von blinden Flecken, sie kann die Relevanz, die Transparenz, die Akzeptanz und die Nutzung der Evaluation und ihrer Ergebnisse erhöhen, die Vertrauensbasis stärken, der Konfliktprävention dienen und bei den Beteiligten zu Lerneffekten auch hinsichtlich evaluationsspezifischer Kompetenzen führen (Balzer/Beywl, 2018, 202X). Unterschiedliche Autorinnen und Autoren haben Kategorisierungen bezogen auf die Partizipation vorgenommen. Im Folgenden werden zwei spezifisch vorgestellt:
Döring (2023) beschreibt unterschiedliche Formen der Einbeziehung von Stakeholdern:
| Cousins und Whitemore (1998) definieren drei Dimensionen der Ausprägung von Partizipation:
|
Essenziell ist, auch mit Blick auf den zielgerichteten und massvollen Ressourceneinsatz, dass Partizipation in angemessener Weise erfolgt, damit die Durchführbarkeit der Evaluation nicht übermässig erschwert wird. Besonders hilfreich sind gemeinsame Gegenstandsbeschreibungen (bspw. vertieft durch Entwicklung von eigenen Wirkmodellen) und präzise Festlegung von Evaluationszwecken und Evaluationsfragestellungen sowie die gemeinschaftliche Organisation von Datenerhebungen und die folgende Auseinandersetzung mit Dateninterpretationen und schliesslich der Gedankenaustausch zu Nutzungsmöglichkeiten von Evaluationsergebnissen. Als vertiefende Literatur zum Thema Partizipation in der Evaluation wird das Buch «Collaborative Approaches to Evaluation Principles» (Cousins et al., 2020) empfohlen.
In einem gemischten Plenum von Personen, welche entweder in der Evaluation oder in angrenzenden Disziplinen tätig sind, wurden Fragen zum Referat gestellt und diskutiert. Im Folgenden werden diskutierte Inhalte ungefiltert zusammengefasst. Es bildet sich der Diskussionsstand zwischen Publikum sowie Expertinnen und Experten ab. Es lässt sich schliessen, dass anhaltend Klärungsbedarf bzgl. definitorischen Feinheiten besteht. Zudem animierte die geführte Diskussion Balzer und Beywl zu einer Präzisierung ihrer aktuellen Definition (202X).
| Diskussionsverlauf Frage: Endet die Partizipation dort, wo der Unterschied zwischen Evaluation und Selbstevaluation liegt? Selbstevaluation ist per Definition partizipativ, kann aber im Unterschied zur Evaluation eindimensional praktikergesteuert erfolgen. Eine Selbstevaluation («Selbstbeurteilung») ist bspw. für Hochschulakkreditierungen zwingen erforderlich. Frage: Ist das Vorgehen im Zuge einer Akkreditierung partizipativ, weil anhand von Selbstevaluationen gearbeitet wird, in welcher verschiedene Stimmen der Hochschule einbezogen werden? Gerade bei der Akkreditierung gibt es keine volle Mitentscheidung bei Fragen der Planung oder Umsetzung des Evaluationsvorhabens. Frage: Was macht die Grenze zwischen Evaluation und Selbstevaluation aus? Eine mögliche Grenze zeigt die Intensität der Einflussnahme auf (vgl. Cousins/Whitemore, 1998). Liegt die Entscheidungsmacht bei den Hauptnutzenden, so bestimmen diese letztlich bspw. die Inhalte einer Evaluation (Selbstevaluation). Liegt diese aber bei den Auftraggebenden oder bei den Evaluierenden, so kann bei Bedarf oder Notwendigkeit eingegriffen werden (Evaluation). Giel et al. (2021) haben ein Stufenmodell der Partizipation vorgestellt, welches zwischen Nicht-Partizipation, Vorstufen der Partizipation, Partizipation und über Partizipation hinausgehenden Formen unterscheidet. Selbstevaluation würde in diesem Modell der Selbstorganisation entsprechen, welche über Partizipation hinausgeht. Frage: Würde die Definition von Evaluation gemäss von Balzer/Beywl (202X) mit dem Bezug zu der sozialwissenschaftlichen Methodik auch die «behavioral economics» integrieren? Ja. Frage: Inwiefern müssen Daten und Informationen anhand von sozialwissenschaftlichen Methoden gewonnen werden (vgl. Definition Balzer/Beywl, 202X)? Daten könnten auch naturwissenschaftlicher oder technischer Natur sein wie bspw. Daten zum CO2-Ausstoss. Vielleicht wäre es möglich, die Diskussion von Evaluation so anzupassen, dass «sozialwissenschaftliche Methoden» durch «sozialwissenschaftliche Standards» ersetzt würden. Der Bezug zu sozialwissenschaftlichen Methoden stellt eine Art Sicherheitsanker bezogen auf die Qualität von Evaluationen dar. Dieser Passus führt dazu, dass Evaluation nicht «alles» sein kann, dass bspw. ein Blitzlicht am Ende einer Lektion für sich genommen keine Evaluation ist, wohl aber eine (von in der Regel mehreren) Datenquellen. Feedback (also Rückmeldungen von Person an Person) kann ebenfalls eine Datenquelle sein. Wenn ein Verfahren, das sozialwissenschaftliche Methodiken für den beschreibenden Teil einsetzt und evaluationswissenschaftliche für die Bewertung, dann handelt es sich um eine Evaluation im professionellen Verständnis. In Reaktion auf diese Diskussion werden die Autoren ihre Definition von Evaluation nochmals spezifizieren: Daten werden in Evaluationen in der Regel mit sozialwissenschaftlichen Methoden erhoben (es gibt auch anfallende Daten, z. B. aus LMS) und sie werden immer mit sozialwissenschaftlichen Methoden ausgewertet – damit ist die Informationsgewinnung immer sozialwissenschaftlich geprägt (vgl. Definition Balzer/Beywl, 202X). Frage: Wie kann man den Rückgriff auf Evaluationsdaten im Qualitätsmanagement verorten, ohne etwas «Falsches» über Evaluation zu sagen? Daten der Evaluation werden im QM zur Steuerung genutzt. Evaluation versteht sich aber breiter, bedient diesbezügliche Bedürfnisse, was aber nicht das Bestreben der Evaluation insgesamt abzudecken vermag. Aus Evaluationsperspektive ist die Absolutheit gewisser Ansichten problematisch, welche der Evaluation übergestülpt werden ohne Bewusstsein zum disziplinbezogenen Selbstverständnis. |
Die Hochschulentwicklung integriert Informationen bezogen auf qualitätssichernde oder -verbessernde Aspekte wie auch bezogen auf zukunftsorientierte Aktivitäten der Hochschule. Die Zürcher Hochschule für Angewandte Wissenschaften (ZHAW) formuliert die Vision bezogen auf die Hochschulentwicklung folgendermassen:
Wir generieren fundiertes Wissen und Orientierung für die Entwicklung der Hochschule in ihren gesellschaftlichen Zusammenhängen und internationalen Kontexten. Wir gestalten fachübergreifende Erfahrungsräume, regen den interdisziplinären Diskurs an und schaffen damit Voraussetzungen für ein kohärentes und zukunftsweisendes Verständnis von Bildung und Forschung. (ZHAW, ohne Datum)
Damit bietet der Begriff «Hochschulentwicklung» eine integrierende Sichtweise auf die Aufgaben im Qualitätsbereich einer Hochschule. Die zuvor abgegrenzten Disziplinen arbeiten auf ein gemeinsames Ziel hin, auch wenn Informationen gebündelt und schliesslich spezifisch nutzbar gemacht werden. In der Folge (Kapitel 3) wird ein Inhaltsmodell herangezogen, um Inhalte thematisch zu bündeln und Handlunsfoki einzelner Funktionsgruppen im Q-Bereich zu spezifizieren.
Das vorhergehende Kapitel 2 zur Definition und Abgrenzung der Evaluation hat gezeigt, dass Personen in unterschiedlichen Funktionen andere Schwerpunkte setzen und somit Beiträge anderer Bereiche zur Hochschulentwicklung verschieden wahrnehmen und einordnen. In der Folge werden aktuelle Inhalte benannt und der aktuelle Stand der Bezüge zwischen den Q-Bereichen aufgezeigt (Kapitel 3.1). Weiter wird ein möglicher Ansatzpunkt der Zusammenarbeit über die Zuordnung von Qualitätsaspekten zu Funktionsgruppen präsentiert (Kapitel 3.2). Es wird den Fragen nachgegangen, inwiefern sich Inhalte verschiedener Q-Bereiche zusammenführen lassen und welches Spezialwissen bzw. welche Spezialkenntnisse die unterschiedlichen Q-Bereiche auszeichnen. Durch diesen Beitrag der Netzwerktagung führte Tanja P. Schnoz-Schmied (Leiterin Evaluation PH Graubünden).
Aktuell werden die Funktionen im Q-Bereich an Hochschulen divers ausdifferenziert und ins Organigramm eingebettet. Zudem werden Aufgaben in unterschiedlicher Art und Weise definiert und auf Funktionen verteilt (siehe dazu auch Kapitel 4). In manchen Organisationen sind Allrounderinnen und Allrounder am Werk, in anderen Organisationen werden Aufgaben strikte auf Spezialistinnen bzw. Spezialisten verteilt. Während bei Allrounderinnen und Allroundern die Professionalisierung meist nicht in allen Q-Bereichen gleich gut ausgeprägt ist, handelt sich eine Hochschule mit stark ausgeprägter Spezialisierung das Problem der Versäulung (Pohlenz et al., 2017), also von zunehmend autonom handelnden Fachkulturen, ein. Es stellt sich somit die Frage, wie Inhalte zielführend gebündelt und Handlungen dennoch spezialisiert ausgeführt werden können, ohne das grosse Ganze einer qualitätvollen Hochschulentwicklung aus den Augen zu verlieren.
Das zweite Diskussionsfenster im Plenum wurde so gestaltet, dass gemeinsam ein Modell entwickelt wurde. Es handelt sich um eine grafische Anordnung der eingeführten Aufgabenbereiche. Dabei konnten die Grösse sowie die Positionierung der Bereiche zueinander bestimmt werden. Diese Übung wurde anhand einer Power-Point-Präsentation umgesetzt. Mit Partizipation der Teilnehmenden wurden Vierecke in der Grösse angepasst, zusätzliche Elemente eingefügt und zueinander in Beziehung gesetzt. In der Erarbeitung eines gemeinsamen Modells wurde deutlich, dass eigene fachliche Hintergründe bestimmend für die Ausgestaltung waren. Der aktuelle Diskussionsstand lässt es noch nicht zu, gemeinsam ein ausgewogenes Gesamtmodell zu entwickeln.
| Übungsverlauf: Aufgabenstellung: Man stelle sich vor, alle Q-Bereiche wären Bauklötzchen, welche zueinander in Beziehung gebracht werden sollen, um deren gegenseitige Abhängigkeiten und Verbindungen aufzuzeigen. Beginnen würde man mit folgenden Bauklötzchen: Bildungsmonitoring, Hochschulentwicklung, Evaluation, Qualitätsmanagement, Qualitätssicherung, Akkreditierung. Wie gross wären die einzelnen Bauklötzchen und welche davon hätten dieselbe Farbe? Welche Bauklötzchen würden auf welche aufbauen, inwiefern wären die Flächen überlappend bzw. integrierend? Verlauf der Übung: Eindrücklich zeigte sich die unterschiedliche Auffassung der Q-Bereiche und ihre entsprechend unterschiedliche Ausgestaltung und Platzierung. Es wurden Facetten von Q-Bereichen auf unterschiedlichen Differenzierungsgraden oder Reichweiten verstanden. Beispielsweise wurde die Frage aufgeworfen, ob Hochschulentwicklung im Sinne des Bildungsmonitorings die Entwicklung aller Hochschulen betrifft oder eine Hochschule ganz spezifisch. Zudem stellte sich die Frage, inwiefern Hochschulentwicklung der Lehrentwicklung, der Qualitätsentwicklung bzw. der institutionellen Entwicklung oder Organisationsentwicklung entspricht. Im Zuge der Diskussion und Ergänzung des Modells war die Evaluation kaum mehr ersichtlich. Reflexion zur Übung: Das konsolidierte Fazit bringt hervor, dass es keine allgemeingültigen Definitionen gibt, weil sich die Definition eines jeden Bereichs mit dem Blick aus einem spezifischen Fachhintergrund verändert. |
In der Folge dieser Erfahrung wurde ein möglicher Ansatzpunkt zur Entwicklung einer Gesamtsicht, unabhängig von der Gewichtung einzelner fachlicher Hintergründe, vorgestellt. Die Folien der Präsentationen werden SEVAL-Mitgliedern im geschützten Bereich zugänglich gemacht, hier sind die gemeinsam erarbeiteten sowie die präsentierten Modelle ersichtlich.
Bezogen auf das Bildungsmonitoring zeigt sich im Bildungsbericht 2023 (Schweizerische Koordinationsstelle für Bildungsforschung, 2023), anhand welcher Indikatoren die Trägerschaft der Hochschulen die Effizienz der Ausbildung messen. Die Berechnungen beruhen auf Daten der Befragung der Absolventinnen und Absolventen, welche durch das Bundesamt für Statistik durchgeführt werden. Für Universitäten und Fachhochschulen werden die Erwerbstätigenquoten (Universitäten: für die meisten Disziplinen zw. 80–100%; Fachhochschulen: für die meisten Disziplinen zw. 60–100%) sowie die ausbildungsadäquate Beschäftigung ein bzw. fünf Jahre nach Studienabschluss fokussiert. Ausbildungsadäquat meint dabei sowohl den Qualifikationsgrad als auch die Passung der fachlichen Qualifikation bzgl. Studium. Für die Fachhochschulen wird zusätzlich ausgewiesen, inwiefern die einzelnen Fachhochschulen positiv oder negativ vom Durchschnitt abweichen. Positiv schneiden v. a. jene Fachhochschulen ab, welche ein grosses Einzugsgebiet bedienen und nicht in einem Ballungszentrum liegen. Bei ehemaligen Studierenden der Pädagogischen Hochschulen stellt sich heraus, dass die Quote der ausbildungsadäquaten Unterrichtstätigkeiten mit einer jeweils höheren Zielstufe fällt. Dies bedeutet, dass auch für die Pädagogischen Hochschulen der Zielberuf mit steigendem Ausbildungsgrad weniger klar definiert werden kann. Dennoch weisen Pädagogische Hochschulen den stärksten Bezug zu einem bestimmten Beruf aus, der nach Studienabschluss ausgeübt wird. So misst das Bildungsmonitoring bei Pädagogischen Hochschulen die Effektivität der Ausbildung spezifisch am Gelingen des Berufseinstiegs und an der Erfüllung der gegenwärtigen Berufsaufgaben. Die meisten Hochschulen schneiden im mittleren bis hohen Bereich ab, was bedeutet, dass die Pädagogischen Hochschulen ihre Studierenden gut auf den Berufsalltag sowie die zu erfüllenden Aufgaben vorbereiten. Allerdings besteht an allen Hochschulen noch Entwicklungspotential, die Studierenden noch zielführender zu unterstützen.
Die PH Graubünden hat ein umfassendes Inhaltsmodell entwickelt, welches zulässt, dass die getätigten Evaluationen spezifisch auf den Fokus des Bildungsmonitorings abgestimmt werden können (Schnoz-Schmied/Curcio, 2021). Inhalte werden zudem gemäss hochschulspezifischem Kontext, strategischer Zielsetzung sowie spezifischem Erkenntnisinteresse bestimmt. Das Inhaltsmodell adressiert die Input-, Prozess- und Ergebnisqualität. Als Schritt hin zu den durch das Bildungsmonitoring fokussierten Indikatoren rückte die PH Graubünden bspw. in der Ergebnisqualität neben der Zufriedenheit der Studierenden (Resultat) und der Kompetenzentwicklung bzw. dem Kompetenzniveau (Lernerfolge), die Performanz der Studierenden in Praktika (Verhalten) ins Zentrum der evaluativen Betrachtungen. Damit intensiviert sie die Zielsetzung, das Bachelorstudium in der Berufseinstiegsphase gezielt und praxisorientiert zu unterstützen. Dieses Inhaltsmodell dient in der folgenden, verknappten Illustration als Auslegeordnung von Inhalten im Q-Bereich. Diesen Inhalten können Funktionen im Q-Bereich zugeordnet werden. Eine vollständige Darstellung (Schnoz-Schmied/Curcio, 2021) sowie ein Anwendungsbeispiel (Schnoz-Schmied/Curcio, 2022) sind bereits andernorts verschriftlicht.
Faktoren, welche für die Inputqualität ausschlaggebend sind, können studierenden- und hochschulseitig festgestellt werden. Das Qualitätsmanagement interessiert sich auch im Zuge der Dokumentationstätigkeiten für die Akkreditierung für folgende Aspekte: Abschlussnote Vorbildung, Bildungsherkunft und -niveau, Nachweis von Zulassungsbedingungen und Bestehen von Zulassungsprüfungen sowie ggf. Dispensationsmöglichkeiten. Mit Blick auf eine möglichst effiziente und dennoch zielführende Ausbildung werden folgende Kennziffern fokussiert: Auslastung Studiengang, Betreuungsrelation, Beratungsangebote bei bestehenden Rahmenbedingungen, Überschneidungen und Flexibilisierung der Studienplanung. Hinsichtlich der Inputqualität fokussiert die Evaluation vorzugsweise die ausbildungsbezogenen Bedürfnisse und Zielsetzungen sowie die Berufsbezogene Motivation.
Die Prozessqualität bezieht sich auf Aktivitäten von Seiten der Studierenden und Dozierenden wie auch auf die Rahmenbedingungen und Inhalte des Studiums. Evaluierende fokussieren die Prozessqualität intensiv, v. a. dann, wenn der Evaluationszweck auf Verbesserung, Adaptation oder Entwicklung ausgerichtet ist. Prozessvariablen geben Hinweise darauf, wie die Ausbildung hinsichtlich der Ergebnisqualität gewinnbringend verändert werden kann. Das Qualitätsmanagement hingegen fokussiert vornehmlich die Rahmenbedingungen: bspw. Anteil Präsenzveranstaltungen, Veranstaltungsformen, Anteil und Situierung Praktika sowie Anteil flexibles bzw. individuelles Lernen.
Schliesslich interessieren sich das Bildungsmonitoring, das Qualitätsmanagement sowie die Evaluation für die Ergebnisqualität.
- Qualitätsmanagement (inkl. Akkreditierungsbezug): bspw. Anteil abschliessende Absolventinnen und Absolventen bzw. Drop-out-Quote (Letztere freiwillig oder nicht), Einhaltung Regelstudienzeit bzw. Studienzeitüberschreitungen, Notendurchschnitt (Lehrveranstaltungen, pro Fachbereich, Ausbildung insgesamt)
- Evaluation: Zufriedenheit (Lehrveranstaltungen, Studium, Bezug Beruf), Erreichung fachlicher und überfachlicher Kompetenzen, Umsetzung von Gelerntem (Studium, Praktika, Berufseinstieg), Professionalisierung während und nach dem Studium
- Bildungsmonitoring: Umsetzung von Gelerntem (Berufseinstieg), Erwerbsquote, Berufseintrittsquote, Anstellungsquote, Verbleib im Beruf, Passung Qualifikation und Anforderung Beschäftigung, Bewältigung beruflicher Anforderungen bzw. Berufserfolg
In der Zuteilung der Inhalte bzw. Indikatoren zu Funktionsgruppen (hier: Qualitätsmanagement, Evaluation und Bildungsmonitoring) zeigt sich beispielhaft, dass die Foki unterschiedlich sind und sich ergänzen oder ineinander überführen. Hinsichtlich Ergebnisqualität wandert das Augenmerk von nackten Zahlen (Qualitätsmanagement) zu vertiefenden Einschätzungen (Evaluation) zu impactbezogenen Massen (Bildungsmonitoring). Während das Qualitätsmanagement über die Input-, Prozess- und Ergebnisqualität hinweg Kennzahlen fokussiert, die eine Effizienzsteigerung bei Erfüllung von Basiszielen ermöglichen, fokussiert die Evaluation Prozesse, die zur Zielerreichung führen und von den Agierenden der Hochschule verändert werden können. Das Bildungsmonitoring prüft Ausbildungen mit Blick auf deren Funktion und Wert für die Gesellschaft. Es ist aus Sicht der Autorin (Tanja P. Schnoz-Schmied) möglich, über Präzisierungen und Erweiterungen von Inhaltsmodellen zu einem gemeinsamen Ganzen zu gelangen, in dem alle Beteiligten gemäss eigener Expertise eine qualitätvolle Hochschulentwicklung fördern.
Sara Wyler als dritte Referierende ist Qualitätsbeauftragte der Hochschule der Künste Bern (HKB, ein Departement der Berner Fachhochschule BFH) und verantwortet in dieser Funktion u. a. die Lehrevaluation. Sie ist Absolventin des Diplomstudiengangs in Evaluation an der Universität Bern und berät und begleitet zudem auf selbständiger Basis in Evaluation und Qualitätsmanagement. Sie integriert daher in persona Aufgaben des Qualitätsmanagements (inkl. Unterstützung in Akkreditierungsaktivitäten), der Evaluation sowie des Monitorings.
Sara Wyler arbeitet an der Berner Fachhochschule in einer Organisation, welche ihr Qualitätsverständnis folgendermassen definiert:
Die BFH definiert sich als lernende Organisation. Daraus resultiert ein Qualitätsverständnis, das in hohem Masse auf die Entwicklungsfähigkeit und zugleich auf Nachhaltigkeit und Gleichstellung in Lehre, Forschung & Dienstleistung und Verwaltung der Hochschule abstellt. Qualität heisst in diesem Sinne für die BFH, dass den Erwartungen der BFH-Anspruchsgruppen (insbesondere Hochschulträger, Arbeitgeber, Studierende, Mitarbeitende) durch kontinuierliche Verbesserungen in allen Leistungsbereichen Rechnung getragen wird. (Berner Fachhochschule, 2022)
Aktuell erarbeitet die Berner Fachhochschule ein zyklisches Modell, welches relevante Aspekte im Qualitätskreislauf aufgreift. Auf der Basis von aktuellen, internen und externen Vorgaben und Trends, unter Berücksichtigung von Leitsätzen der Unternehmenskultur, wird die Strategie entworfen und der Leistungsauftrag ausgelegt (Ausrichtung – planen). Strategische Ziele werden anhand des Qualitätsmanagements heruntergebrochen und strukturell abgebildet. Forschungs- und Kommissionsarbeiten sowie die Berufspraxis werden orientiert an einer Kultur der Impactorientierung auf das Qualitäts-Monitoring ausgerichtet und realisiert (Realisierung – umsetzen). Anhand der Kennzahlen im Strategie- bzw. Qualitäts-Monitoring wird der Stand der aktuellen Ausführung auch hinsichtlich des Verbesserungspotentials geprüft (Ergebnisse – evaluieren). Diverse interne und externe Reportings beleuchten die Qualität der Berner Fachhochschule vielschichtig und ermöglichen es, sowohl inhaltliche als auch prozessbezogene Entwicklungen zu vollziehen und laufende Zertifizierungsverfahren zu bestehen (Weiterentwicklung – aktualisieren, optimieren).
Funktionsbezogen gibt es für die gesamte Berner Fachhochschule eine Qualitätsbeauftragte mit Einsitz in der Fachhochschulleitung, der eine Kommission Qualitätsentwicklung unterstellt ist. In dieser Kommission Qualitätsentwicklung sind neben der Leitung und einer zuständigen Person für das Prozessmanagement den einzelnen Organisationseinheiten Qualitätsbeauftragte zugeordnet (Services, Rektorat und 8 Departemente). Eine unterstützende, querschnittliche Funktion dazu übernahm bisher die Fachstelle Qualitätsentwicklung. Zukünftig wird die Leitung der Kommission und die Leitung der Fachstelle in Personalunion geführt, um Prozesse noch zielführender und effizienter zu gestalten. Im Rahmenkonzept wird die Zusammenarbeit der Qualitätsbeauftragten untereinander und der Austausch zu weiteren Ansprechpartnern gesteuert. So gibt bspw. die Curriculumsentwicklung Ideen für die Studiengangsevaluation vor. Solche und weitere Vorschläge werden in der Kommission Qualitätsentwicklung geprüft und mit entsprechenden Organisationseinheiten (bspw. der Kommission Lehre) ausgearbeitet.
Im Plenum der Netzwerktagung wurde die Auslegeordnung von Themen und Abläufen interessiert entgegengenommen. Vor allem das Wissensmanagement, weckte Interesse. Dabei wird dargelegt, warum man was wie macht. Zudem wurde kritisch diskutiert, inwiefern Evaluation als Organisationseinheit unabhängig vom Qualitätsmanagement geführt werden sollte. In einigen Institutionen wird Evaluation und Qualitätsmanagement getrennt geführt (bspw. Eidgenössische Hochschule für Berufsbildung, PH Graubünden). Dies ermöglicht, dass Evaluationen auch unangenehme Punkte oder blinde Flecke aufgreifen dürfen, um bspw. auch Innovation zu ermöglichen.
In der Folge stellte Sara Wyler an der Netzwerktagung beispielhaft unterschiedliche Erhebungen, Datenquellen und Ergebnisse vor, welche an der Berner Fachhochschule von Relevanz sind. Daten werden auf Mikroebene (bspw. Blick der Studierenden auf die Lehrveranstaltung), auf Mesoebene (Blick der Absolventinnen und Absolventen zurück auf die Ausbildung) sowie auf Makroebene (Blick eines Zertifizierungssystems auf die Institution) gesammelt. Die Erhebungen sowie die Berichterstattung finden pro Erhebung in einer geplanten Regelmässigkeit statt (semesterweise, jährlich, alle zwei, vier oder sieben Jahre). Zur Entwicklung von Handlungsmassnahmen stehen diverse Erkenntnisse aus allen drei Ebenen zur Verfügung. Zudem werden zur Verarbeitung und Speicherung der Daten und Ergebnisse verschiedenste Tools eingesetzt (bspw. EvaSys, Moodle, Campus App, Signavio, Microsoft Forms, One Drive, CRM, SAP, Statistica).
Die Integration der produzierten Ergebnisse stellt eine Herausforderung dar. Dies v. a. auch, weil mit den Erhebungen diverse Zwecke verfolgt werden (bspw. externe und interne Rechenschaftslegung, Verbesserung, Entwicklung, Entscheidfindung). Zudem wird das Ziel der Qualitäts- bzw. Hochschulentwicklung unterschiedlich ausdifferenziert (bspw. prozess-, produkt-, angebotsbezogen). Weiter fordern die Evaluationsstandards dazu auf, Ergebnisse pro Anspruchsgruppe spezifisch aufzubereiten (Standard C4 Angemessene Berichterstattung, Schweizerische Evaluationsgesellschaft, 2017). Die unterschiedlichen Foki, Anforderungen und Ausrichtungen der Berichterstattung produzieren eine schier unüberschaubare Menge an Informationen. Fraglich dabei ist, inwiefern Erkenntnisse noch systematischer gebündelt und zielgerichteter genutzt werden können.
Vielleicht stellt der Anfang ein Datenmanagement über eine zusammenführende Plattform (bspw. Power BI) dar. Aus dieser Plattform könnten über ein Wunsch-Datencockpit Einzelergebnisse gefiltert, Übersichten gebündelt und Warnhinweise bzgl. Ampelsystem angezeigt werden. Die grösste Herausforderung dabei stellt die Integration qualitativer Daten dar.
Teilnehmende der Netzwerktagung nahmen den Faden diskutierend auf. Macht ein Überblicksbericht in Form eines One-Pagers Sinn? Geht es darum, Daten einfach darzustellen, die Nutzenden zu befähigen (bspw. Data Literacy) oder Gefässe und Automatismen zur Diskussion von Ergebnissen zu schaffen? Wo kann man bei verschiedenen Aggregationsebenen überhaupt ansetzen, Komplexität zu reduzieren? Bedingt eine Zusammenführung, dass alle Daten von allen Nutzenden in gleichem Masse eingesehen werden können? Bieten bspw. aggregierte Daten genügend verbesserungs- bzw. entwicklungsorientierte Hinweise für die Mikroebene?
Zusammenfassend lässt sich konstatierten, dass Evaluation eine Disziplin darstellt, die sich forschungsnah und dennoch dienstleistend versteht. Daten von Evaluationen finden auch in anderen Q-Bereichen Verwendung, dennoch stellen diese dienstleistenden Elemente nicht den Kern von Evaluation dar. Evaluationen erfüllen neben der Prüfung (check) im PDCA-Zyklus auch wichtige Funktionen in der Planung (plan) und der Adaptation (auch act genannt). In der Abgrenzung zur Selbstevaluation ist es jedoch unerlässlich, dass Evaluierende in der Ausführungsphase (do) nicht aktiv beitragen.
Evaluationen wirkungsvoll zu planen, stellt eine anspruchsvolle Aufgabe für das Gesamtsystem der Handelnden dar. Gleichwohl ist es auch für Evaluierende erstrebenswert, sich in ein Ganzes von qualitätsbezogenen Aktivitäten einer Hochschule einzubetten und zur erfolgreichen Zielerreichung beizutragen. Gelingt es, Aktivitäten zu bündeln und funktionsbezogen spezifisch zuzuordnen, so kann eine entsprechende Umsetzung im besten Fall bedeuten, dass ein System von Expertinnen bzw. Experten in Querschnittfunktionen die eigenen Stärken gewinnbringend kombiniert und das professionelle und qualitätsorientierte Handeln in einer Organisation divers unterstützt.
Institutionen verfassen die Funktions- und Aufgabenbeschreibungen von Personen, welche im Q-Bereich angesiedelt sind, unterschiedlich spezifisch und integrieren entsprechende Funktionen unterschiedlich in ihr Institutionsorganigramm. Während einige Evaluierende den Status von Sachbearbeitenden zugeordnet wird, werden andere als disziplinbezogene Fachexpertinnen bzw. -experten gewürdigt. Wenige werden im Bereich Studium und Lehre verortet, viele im Rektoratsstab und einige in der Forschung. Genauso wie eine Aufgabenteilung integrierend und nicht vereinnahmend vorgenommen werden sollte, dürfte die Evaluation nicht als «kleine Schwester» des Qualitätsmanagements oder gar als «linker Zeh» davon verstanden werden. Evaluation und evaluationsspezifische Aufgaben, soweit sie fachspezifisch ausgeführt werden, beziehen sich auf Vorgaben einer eigenständigen Disziplin und verdienen eine eigenständige und passende Position in Organigrammen.
Eine integrierende, gemeinsame Datengrundlage und dennoch spezifische Informationen für unterschiedlichste Anspruchsgruppen stellen wohl ein wünschenswertes Ziel dar. In der Umsetzung sind «kreative Köpfe» gefragt, welche unterschiedlichste Tools zu verbinden wissen, welche die Flughöhe der gemeinsamen Datengrundlage geschickt bestimmen und schliesslich einen ausgeklügelten Mechanismus entwerfen, um in die Tiefe zu gehen. In diesem Sinne: Freiwillige vor1!
Tanja P. Schnoz-Schmied (lic. phil. I / M.Sc. Psychologie), Leiterin Evaluation an der Pädagogischen Hochschule Graubünden (tanja.schnoz@phgr.ch).
Sara Wyler (M.Sc. Erziehungswissenschaft), Qualitätsbeauftragte Hochschule der Künste Bern und Selbständige Beraterin in Evaluation und Qualitätsmanagement.
Jennifer Hofmann (Dr. phil), Co-Leitung Qualitätsmanagement Studium und Lehre Universität Zürich, Dozentin an der Zürcher Fachhochschule der Angewandten Wissenschaften und Fernuni Schweiz.
Unter Mitarbeit von Prof. Dr. Lars Balzer und Prof. Dr. Wolfgang Beywl.
- Arbeitsgruppe Hochschulentwicklung und Evaluation (2025, ohne Datum): Hochschulentwicklung und Evaluation [Homepage]. Schweizerische Evaluationsgesellschaft (SEVAL). https://www.seval.ch/arbeitsgruppen/hochschulentwicklung-und-evaluation/ [29. Juni 2025].
- Arbeitskreis Entwicklungspolitik und Humanitäre Hilfe der DeGEval (2023): Gütekriterien für Monitoring in der Entwicklungszusammenarbeit. DeGEval.
- Balzer, Lars / Beywl, Wolfgang (2018): evaluiert – erweitertes Planungsbuch für Evaluationen im Bildungsbereich (2. Aufl.). hep verlag.
- Berner Fachhochschule (2022): Rahmenkonzept Qualitätsmanagement BFH (S. 1–17) (überarb. Version). https://www.bfh.ch/dam/jcr:df33066d-79be-4dc7-a776-e91b53f23ad3/Rahmenkonzept%20QM_2022.pdf [29. Juni 2025].
- Cousins, J. Bradley (2003): Utilization Effects of Participatory Evaluation. In Kellaghan, T. / Stufflebeam, D. L. (Hrsg.), International Handbook of Educational Evaluation (S. 245–265). Springer. https://doi.org/10.1007/978-94-010-0309-4_16.
- Cousins, J. Bradley / Whitmore, Elizabeth (1998): Framing Participatory Evaluation. New Directions for Evaluation, 80, 5–23.
- Döring, Nicola (2023): Forschungsmethoden und Evaluation in den Sozial- und Humanwissenschaften. Springer.
- Fitzpatrick, Jody L. / Sanders, James R. / Worthen, Blaine R. (2012): Program evaluation: alternative approaches and practical guidelines (4th ed.). Pearson.
- Franklin, Jack L. / Thrasher, Jean H. (1976): An Introduction to Program Evaluation. John Wiley & Sons.
- Gnahs, Dieter / Quilling, Eike (2019): Qualitätsmanagement: Konzepte und Praxiswissen für die Weiterbildung. Springer VS.
- Hummel, Thomas R. (2001): Erfolgreiches Bildungscontrolling. Praxis und Perspektiven. I.H. Sauer-Verlag.
- Krieger, Michael / Dubsky, Andre / Hilbert, Peter (2020): Bildungscontrolling. Springer Fachmedien Wiesbaden.
- Kromrey, Helmut (2001): Evaluation – ein vielschichtiges Konzept. Begriff und Methodik von Evaluierung und Evaluationsforschung. Empfehlungen für die Praxis. Sozialwissenschaften und Berufspraxis, 24(2), 105–131.
- Netzwerk Bildungsmonitoring (2023): Positionspapier zum Bildungsmonitoring. https://ibbw-bw.de/site/pbs-bw-km-root/get/documents_E-1948234404/KULTUS.Dachmandant/KULTUS/Dienststellen/ibbw/Systemanalysen/Bildungsmonitoring/Positionspapier_BiMo_3-3.pdf.
- Pohlenz, Philipp / Harris-Huemmert, Susan / Mitterauer, Lukas (2017): Third Space revisited. Jeder für sich oder alle für ein Ziel? Eine Einleitung. In Pohlenz, P. / Harris-Huemmert, S. / Mitterauer, L.(Hrsg.), Third Space revisited: Jeder für sich oder alle für ein Ziel? (S. 3–7). UniversitätsVerlagWebler.
- Scriven, Michael (1981): The Logic of Evaluation. Edgepress.
- Schnoz-Schmied, Tanja Patrizia / Curcio, Gian-Paolo (2021): Studienerfolgsmanagement und die Passung von Studierbarkeit und Studierfähigkeit. In Krempkow, R. / Vettori, O. / Buss, I. (Hrsg.), Zeitschrift für Hochschulentwicklung. Studierbarkeit und Studienerfolg – zwischen Konzepten, Analysen und Steuerungspraxis (S. 23–39). Verein Forum neue Medien in der Lehre Austria. https://doi.org/10.3217/zfhe-16-04/12.
- Schnoz-Schmied, Tanja Patrizia / Curcio, Gian-Paolo (2022): Studienerfolgsmanagement an Hochschulen – kompetenzorientiert zur Professionalisierung. In Krempkow, R. / Wilhelm, E. / Zawacki-Richter, O. (Hrsg.), Zeitschrift für Hochschulentwicklung. Beiträge zur Hochschulentwicklung (S. 117–142). Verein Forum neue Medien in der Lehre Austria. https://doi.org/10.3217/zfhe-17-02/07.
- Schweizerische Evaluationsgesellschaft (SEVAL) (2017): Erläuterungen zu den Evaluationsstandards der Schweizerischen Evaluationsgesellschaft (SEVAL-Standards). https://www.seval.ch/app/uploads/2018/01/SEVAL-Standards-2016_d.pdf [29. Juni 2025].
- Schweizerische Koordinationsstelle für Bildungsforschung (2023): Bildungsbericht Schweiz 2023 (2. Auflage). Stämpfli AG. https://www.skbf-csre.ch/bildungsbericht/bildungsbericht/.
- Schöni, Walter (2023): Handbuch Bildungscontrolling. Steuerung von Bildungsprozessen in Unternehmen und Bildungsinstitutionen (3. Aufl.). somedia.
- Stockmann, Reinhard (2022): Handbuch zur Evaluation. Eine praktische Handlungsanleitung. Waxmann.
- Strätz, Rainer (2019): Das große Handbuch Qualitätsmanagement in der Kita. Carl Link.
- Zürcher Hochschule für Angewandte Wissenschaften (ZHAW) (ohne Datum): Hochschulentwicklung [Homepage]. ZHAW. https://www.zhaw.ch/de/ueber-uns/organisation/rektorat/hochschulentwicklung [29. Juni 2025].
- 1 Interessierte, welche gerne an einem Entwicklungsthema im Tätigkeitsbereich der SEVAL Arbeitsgruppe für Hochschulentwicklung und Evaluation arbeiten möchten, melden sich gerne bei den Co-Leitenden Jennifer Hofmann oder Tanja P. Schnoz-Schmied. Diese führen Interessierte zusammen und integrieren Erkenntnisse im Rahmen von Lunch-Talks (online) oder Netzwerktagungen (vor Ort).