Was gefällt Ihnen nicht? Watermark Planning & Self-Study?
Ein Problem ist, dass man wissen muss, wohin man gehen muss, um bestimmte Informationen einzugeben. Zum Beispiel wird an meiner Institution verlangt, dass wir ein zusammenfassendes Ergebnis in narrativer Form bereitstellen, das direkt den Zielkriterien für den Erfolg entspricht. Wenn ich ein Lernergebnis habe und die Grafikfunktion benutze (erfüllt, übertroffen, etc.) - was überhaupt nicht nützlich ist - muss ich auch das tatsächliche Ergebnis schreiben. Ich muss wissen, wo ich klicken muss, um sowohl die Grafik als auch die Zusammenfassung zu aktivieren. Das ist nicht sehr sichtbar.
Ein weiteres Problem ist, dass ich gerne unterstützende Dokumentationen sowohl zu meinen Maßnahmen als auch zu den Ergebnissen anhänge, und es war nicht klar, dass Anhänge im Maßnahmebeschreibungsabschnitt von Jahr zu Jahr übernommen werden, während die Anhänge im Ergebnisabschnitt dies nicht tun. Das ist mir als Benutzer nicht offensichtlich. Aber jetzt weiß ich es. Es gibt keinen optimalen Ort, um Dokumentationen darüber einzufügen, wie Ergebnisse verbreitet wurden, noch gibt es ein Eingabefeld, um zu erklären, ob und wann Bewertungsergebnisse und Maßnahmen intern oder an andere Interessengruppen verbreitet wurden.
Die Grafikfunktion ist nur bei den Lernergebnissen verfügbar - aber selbst dann gibt es keinen Mehrwert, eine Grafik zu haben, die zu allgemein ist. Zum einen können die Leute nicht wirklich sehen, welche Erwartungen erfüllt wurden (im Verhältnis zu was?). Außerdem ist die grafische Darstellung von zusammenfassenden Ergebnissen nicht "umsetzbar". Nur wenn die Ergebnisse so schlecht sind, zeigt die Grafik einen allgemeinen Verbesserungsbedarf. Aber ansonsten ist sie ziemlich nutzlos (aber es sieht sicher professionell aus, eine Grafik zu haben). Warum nicht die Grafik anpassbar machen. Zum Beispiel, wenn ich ein Rubrik mit mehreren Bereichen verwenden würde oder eine Multiple-Choice-Prüfung mit mehreren Komponentenbereichen hätte oder wenn ich die Gesamtergebnisse für Teilpopulationen von Studenten vergleichen wollte, dann wäre eine anpassbare Grafik vielleicht im Analyseabschnitt des Berichts viel nützlicher.
Der Aktionsabschnitt ist zwar gut darin, Updates zu verfolgen, sie werden jedoch in den Bericht eingebettet, wo die "Aktion" ihren Ursprung hatte. Das ist nicht so hilfreich, weil Aktionen, die noch in Bearbeitung sind oder aktiv umgesetzt werden, nicht von Jahr zu Jahr mit einem Faden von Updates darüber, was getan wurde und wann, übernommen werden. Daher ist die "Aktionen"-Funktion nett, aber auch irgendwie nutzlos. Es erfordert, dass Benutzer zum ursprünglichen Bericht zurückkehren oder Aktionen in das aktuelle Berichtsjahr kopieren und einfügen, um ein Update bereitzustellen. Ich möchte in der Lage sein, den Fortschritt von Aktionen zu zeigen, während sie über die Vorschlagsphase hinausgehen, in Bearbeitung sind, "abgeschlossen" werden und dann zeigen, wie die Aktion die Ergebnisse beeinflusst hat.
Es gibt auch keine Abschnitte, um Aktionen auf Programmebene vorzuschlagen und zu verfolgen, nur auf Maßnahme- oder Ergebnisebene. Ich mag es nicht, wie die Aktionen auf dem Bericht auf der Ergebnisebene verfolgt werden, weil sie fehl am Platz aussehen. Wenn Aktionen auf der Maßnahmenebene bereitgestellt werden, sehen sie sauber aus und helfen dem Leser, die Punkte zwischen 1) SLOs 2) Maßnahmen, 3) Ergebnisse/Analyse und 4) Aktionen zu verbinden.
Schließlich gibt es keinen Abschnitt, um andere Updates oder Erklärungen oder relevanten Kontext über den Zustand des Programms oder der Einheit einzufügen, die möglicherweise enthalten sein müssen (zum Beispiel organisatorische Änderungen, neue Führung, niedrige Einschreibungen, signifikative Initiative auf Hochschulebene). Bewertung gesammelt von und auf G2.com gehostet.