Superlevel

IM1132: Le Brunch – Das Spieletester-Dilemma

imkaffee

Neue Wertung für Alien: Isolation” verkündete GameStar.de am 17. Oktober – gute 14 Tage, nachdem der Test zum Release von Alien: Isolation (bei Insert Moin jüngst in Folge 1130 besprochen) online gegangen war. In dem kurzen Leitartikel erklärt Online-Chefredakteur Markus Schwerdtel (@Kargbier):

“Nach vielen zusätzlichen Spielstunden und langen Diskussionen in der Redaktion ist klar: Ja, wir haben einen Fehler gemacht und Alien: Isolation zu niedrig bewertet – dafür bitten wir um Entschuldigung. Es gilt der jetzt aktualisierte Test mit der höheren Wertung.”

Folglich wurde die ursprüngliche Wertung von 73 Punkten auf 80 nach oben korrigiert. Kein Präzedenzfall, aber doch durchaus ein extrem außergewöhnlicher Vorgang in der Geschichte des deutschen Spielejournalismus. War Aktualität in diesem Fall wichtiger als Gründlichkeit beim Test und welchem dieser beiden Pole wird bei Spielmagazinen mehr Relevanz zugesprochen?

Um über dieses Tester-Dilemma zu sprechen, hat sich Daniel zum Brunch Markus Schwerdtel und Petra Fröhlich (@Odufroehliche), Chefredakteurin der PC Games, eingeladen. Letzteres Magazin hat übrigens mit 69 Punkten Alien: Isolation eine noch niedrigere Wertung geben und ist auch dabei geblieben.

IM1132: Le Brunch – Das Spieletester-Dilemma 00:00 / 47:35

10 Kommentare zu “IM1132: Le Brunch – Das Spieletester-Dilemma”

  1. Anderaal
    1

    Sehr schöner Podcast. Finde den Blick hinter die Kulissen immer sehr spannend. Das ist übrigens auch etwas, was ich mir sowohl für die PC-Games als auch für die GameStar wünsche: Macht gerne und bitte mehr Reportagen oder Features rund um die Games-Branche… für mich am liebsten übrigens noch immer als gedrucktes Heft. ^^

    • Hendrik
      2

      Zumindest bei der Gamestar ist es seit dem Wechsel in der Chefredaktion so, dass vermehrt Hintergrundberichte über die Branche gedruckt werden. Vor 2 oder 3 Ausgaben gab es sogar einen von Christian Schmidt, der auch mit der Gamestar selbst hart ins Gericht geht.

  2. Michael Ferstl
    3

    spannender Cast. Mich persönlich interessiert die Wertung gar nicht. Viel interessanter ist das Spieleerlebnis des Testers und auch dessen Euphorie
    .

  3. Hendrik
    4

    interessantes Thema. Meiner Meinung nach ist es wichtig das Releasenah schon eine Kaufberatung zur Verfügung steht, da dort auch meistens meine Kaufentscheidung ansteht. Genau so wichtig sind aber auch Formate wie InsertMoin, die dann, auch gerne Wochen nach Release, komplett subjektiv über ein Spiel reden. Daher finde ich diese Diskussion was der “gute” und was der “schlechte” Spielejounalismus ist ziemlich unnötig, beides hat seinen Platz und beides wird, zumindest von mir, auch dankend angenommen.

    • Manuel Fritsch
      5

      ja, so sehe ich das auch. Ich denke auch, dass die reine “Kaufberatung” durchaus ihren Stellenwert hat. Die Mischung macht es eben aus.

  4. Nikolas
    6

    Da fragt man sich doch, warum, wenn sich die Taktung der Testberichte geändert hat, man nicht auch die Methoden anpasst: Wenn Spiele heute so flexibel sind, dass sie sich nicht nur in der Releasephase ändern, sonder auch über ihre komplette Lebenszeit durch Patches, DLC oder spielbedingte Abläufe (z.B. Multiplayer Games deren Server nicht rund laufen, siehe Driveclub), sollte man auch flexibel drüber berichten. D.h. nicht, dass man keine Meinung entwickeln darf, sondern, dass das Anpassen und Ändern dieser Meinung als legitimes, sogar gefordertes Mittel bedacht werden sollte. Eigentlich müsste dieser Prozess integrale Bestandteil der Berichterstattung werden:

    Reviews sollten klarer als persönliche Meinung bzw. Meinungskonsens einer bestimmten Gruppe kommuniziert werden, der sich je nach Bedingung (sei es durch Patches, oder auch einfach durch die Zeit) ändern kann. Zum Release muss es eine initiale Einschätzung geben, gerne auch in Zahlen/Noten/usw. (da diese halt einfach zu konsumieren sind). Sobald sich eine weitergehender Meinung bildet, wird diese angepasst. Aktualität wird gefordert, also muss sie erfüllt werden. Jedoch ohne diese Allgemeingültigkeit zu suggerieren, die bei aktuellen Tests immer mitschwingt.

    Man müsste eine neue, transparente Form finden, die diesen Prozess kommuniziert. Eine Anpassung darf also nicht wie eine Korrektur wirken, sondern wie eine gewollte, fließende Entwicklung einer Meinung. Die aktuelle Darstellung von Tests ist dafür nicht ausreichend. Diese neue Form zu finden wäre eine sehr interessant Sache und würde einen vom Einheitsbrei der ganzen anderen Bewertungen abheben. Wie schon immer, ist bei einem Problem Innovation gefragt.

    Auch die Vielfältigkeit von Meinungen müsste berücksichtigt werden. In Zeiten, in denen sich die User mit den »Conenterstellenden« Medien identifizieren (sei es ein Gronkh, ein Pewdipie oder auch die Rocket Beans Jungs), müssen Gesichter her, bei denen man sowohl Authentizität sowie Vorlieben/Geschmack nachvollziehen kann.

    Eine Möglichkeit wäre also anstatt eines Reviews, einen Diskurs anzubieten.

    Natürlich ist dies mehr Arbeit, da es nicht die eine Deadline gibt, sondern man konsequent dran bleiben muss. Aber sowohl das Medium über das man spricht (Spiele), wie auch das Medium über das jenes Gesprochene verbreitet wird (Internet), sind dynamischer geworden. Die selben journalistischen Methoden, wie sie seit nun 20+ Jahren bemüht werden, scheinen nicht mehr sinnvoll zu sein. Es sollte über eine Anpassung der Länge /Komplexität der Inhalte nachgedacht werden. Es mag den alteingesessenen Journalisten nicht gefallen, aber ein Blick Richtung YouTube, Twitter, NeoGaf usw. zu werfen, dürfte nicht schaden. Um über neue Methoden, die heute funktionieren, nachzudenken, nicht um sie 1zu1 zu übernehmen.

    Neben dem Mehraufwand steht natürlich auch der finanzielle Vor-/Nachteil. Klar werden Tests 3 Wochen nach Release weniger geklickt. Der Peak wird immer am Anfang liegen. Wenn aber so ein transparentes, dynamisches Meinungssystem konsequent durchgezogen wird, misst man vielleicht den Tests einen höheren Wert zu. Höheres Vertrauen in die Meinungen dürften zu mehr Klicks führen… sollte man hoffen. Das kann natürlich auch alles über das Interface, das darauf optimiert sein muss, gesteuert werden. Bei denn aktuellen Interfaces von Produkten, die nicht darauf ausgelegt sind, flexible Wertungen zu zeigen, kann man natürlich nicht davon ausgehen, dass das Anpassen der Wertungen zu guten Ergebnissen führt.

    Ein weiteres Problem ist Metacritic, die als Referenz (auch der Publisher) in der Branche genommen werden, die aber geänderte Bewertungen nicht berücksichtigen. Aber hoffentlich verliert Metacritic irgendwann, grade weil es so ein starres, unreflektiertes System ist, an Bedeutung.

    Tendenzen sind ja schon zusehen, z.B. gamespot mit ihren »in Progress« Videos usw. Das geht nur alles nicht weit genug. Der ständige Diskurs über den Sinn von Reviews zeigt, dass etwas passieren sollte.

    • Manuel Fritsch
      7

      ja, valide Anregung. Im Falle von Alien war es ja wirklich eine Korrektur der “Meinung”, aber was du meinst wird ja zum Beispiel bei Polygon auch transparent so gehandhabt und protokolliert. Bei Sim City zum Beispiel stehen unter dem Test glaube ich 3-4 Wertungen, die sich je nach Serverstatus verändert haben.

      Destiny ist ja auch ein schönes Beispiel. Wertungen der Vanilla-Vesion werden in 1-2 Jahren einfach nicht mehr passen. Man müsste den Score für Destiny im Grunde alle 3 Monate updaten.

      Ich meine mich aber zu erinnern, dass die Gamestar diese “Updates” auch bei den MMORPGs angewandt hat. So ganz neu ist die Idee auch nicht.

    • Hendrik
      8

      Bei der Gamestar gibt es das tatsächlich schon, alle Spiele die in irgendeiner Form mit größeren Contentupdates versorgt werden, bekommen sogenannte “Kontrollbesuche” bei denen das Spiel quasi noch einmal getestet wird und eine neue Wertung erhält. Das sind meistens MMO oder Online Shooter, aber von Zeit zu Zeit auch Offline Spiele wenn sie in größerem Umfang geupdated wurden.

  5. Benny
    9

    Eine nette Podcast-Runde zu diesem Thema.
    Mein einziges Problem ist die Wortwahl, wenn Redakteure “Fehler” während des Testspielens machen. Bei der Formulierung “Wir haben laut Publisher das Spiel falsch gespielt” schwingt für mich mit, dass die Schuld letztendlich nur zum Teil beim Tester zu sehen ist und eben auch beim Spiel liegt. Weil es beispielsweise bestimmte Aspekte/Spielelemente nicht gut erklärt.
    Gerade Alien: Isolation macht aber über einen langen Zeitraum (für einige Leute zu lang), dafür aber etwas subtiler als über eingeblendete Tutorialtexte, deutlich, dass man sich Zeit nehmen sollte, dass jedes Geräusch eine Gefahr darstellt.

    Die Frage der Gamestar, ob man sich für Tests lieber Zeit nehmen sollte, fand ich daher sehr daneben. Letztendlich verfassen Gamestar und PC Games in aller erster Linie Kaufberatungen. Die Tests sind sehr technokratisch. Sie lesen sich nur selten wie Kritiken, sondern arbeiten stattdessen oft nach Schema F die üblichen Testkriterien ab: Einleitung (vielleicht was über den Entwickler), Storyhappen, um den Leser in die Handlung einzuführen, Gameplay, damit er weiß, was los ist, Grafik, Mehrspieler, Schwachstellen, fertig.
    Ich habe nichts gegen solche Tests. Ich lese sie seit meiner Jugend gern (die mit Petra als Siedler-Testerin begann). Aber mehr noch als bei stark subjektiven Kritiken müssen diese Tests objektiv fehlerfrei -- nicht objektiv an sich -- sein. Denn was kann ich als Leser aus einem Test ziehen, der einzelne Spielinhalte auf einer Checkliste abhakt (und dazu in den Wertungen sogar einzelne Unterpunkte aufführt), wenn die einzelnen Punkte dann nicht stimmen? Es stellt sich für solche Tests meiner Meinung nach gar nicht die Frage, ob sie “pünktlich” erscheinen oder doch lieber korrekt sein sollten.

    Zudem haben Petra und Markus selbst die Begründung geliefert, warum sich die Frage für die Redaktionen gar nicht stellt: Wer zu spät kommt, den bestrafen die Klickzahlen. Für alles andere gibt es seit Jahren Formate, die Redaktionen einsetzen: Vorabtests, vorläufige Wertungen, Wertungstendenzen, Tagebücher etc.

    Bei A:I hat man’s einfach versaut. Das kann trotz aller Sorgfalt mal passieren. Ein einschneidendes Ereignis, dass einen Paradigmenwechsel bei deutschten Videospieletests herbeiführen wird, war das nun aber nicht.

  6. Alliser
    10

    Also, diesen Benny, diesen Benny würde ich ja echt mal zum insert-moinschen Podcasten einladen. :hint.hint:

3 Trackbacks zu “IM1132: Le Brunch – Das Spieletester-Dilemma”

Kommentare sind geschlossen.