Grauslich Wissenschaftlich: Das Hans Gros Kriminalmuseum.

Ein sorgfältig in drei Teile geteilter Finger. Eine, mit einer Frau, vollgepackte Marmorsäule, ein Priester in weibischen Gewand und Zigeuner mit selbstheilenden Kräften. Damals sagte man noch Zigeuner.

Das Hans Gros Kriminalmuseum ist einzigartig. Den Hans Gros sieht man da oben. Eine ehemalige Lehrmittelsammlung zur Ausbildung von Untersuchungsrichtern um an deren enzyklopädischen, kriminalistischen Wissen zu feilen und messerscharf die Täter für ihre Taten zu tadeln. Verzeitigen lässt sich das Ganze in das Jahr 1912. Ob der gute, alte Kaiser Franz-Joseph sein k. u. k. Kriminalistischen Institut an der Universität Graz kannte? Wenn ja, hat er sich sicher den schaurig, grauslichen Kriminalfällen und deren wissenschaftliche Aufarbeitung gewidmet, ja es nacherlebt und nach erfahren. Dafür gibt es Museen. Zum Nacherleben einer vergangenen Zeit, zum Erfahren der

Zeugnisse vom Menschen, von seinen Freuden und seinem Leiden, seinen Hoffnungen und Ängste”,

wie das schon der alte Waidacher gesagt hat. Der ist zwar nicht so alt wie der Kaiser, aber halt viel museologischer.

Man möge sich doch vorstellen, es gäbe ein Museum, das gerade real nicht zugänglich ist. Dem Konjunktiv trotzend gibt es das. Wie wäre es, es virtuell zu besuchen. Wir probieren das mal! Und unter Wir verstehen sich meine Studienkollegen und ich. Und ich versuch hiermit blog-technisch, sich dem Web 2.0 ergötzend, die Menschen abholend, diesen Prozess an den potenziellen Täter oder das potenzielle Opfer zu bringen. Denn irgendwie sind wir doch alle, und irgendwie waren alle, Täter und Opfer. Der eine mehr, der andere weniger. Ganz zu schwiegen von den Täterinnen und Opferinnen. Und CSI schauen auch viele. 😉

Ich blog mal übers Kriminalmuseum und wie das so digitalisiert wird!

Kommts wieder mal vorbei,
Christopher

BACHHIESL Christian / GARTLER / NESSMANN et al, Räuber, Mörder, Sittenstrolche. 37 Fälle aus dem Kriminalmuseum der Karl-Franzens-Universität Graz, 2. Auflage, Graz 2004.

Icons und Buttons für Lernmodule (ZfL Köln)

Ich habe während meines Auslandssemester am Zentrum für Lehrerinnen Bildung in Köln für 3 Monate gearbeitet. Ich wollte immer schon einmal Informationsdesign an der FH in Graz studieren, was mir aber wegen des beinharten Aufnahmeverfahrens verwehrt bliebt. Umso mehr freut es mich doch einmal gestalterisch, kreativ arbeiten zu können, eingebettet in den Fächern mit denen ich mich gerne in meinem Studium herumschlage.

Das ZfL versucht im Sinne des Blended Learning-Konzeptes Lernmodule zu entwickeln, die Inhalte vermitteln sollen, um Präsenzphasen mit Studierenden besser gestalten zu können. Daraus hat sich der Auftrag, die Idee ergeben Buttons und Icons für diese Art der Lernmodule zu erstellen.

Ich nehme mir als Urheber heraus diese Buttons und Icons hier zu präsentieren, sage aber das die Verwertungsrechte beim ZfL Köln liegen und mit dem ZfL jegliche rechtlichen Fragen zu klären sind. In meinem Sinne sollten sie für jeden frei verfügbar sein.
Wir haben Icons/Buttons erstellt für: Leseauftrag, Abgabe, Lerngruppe, Etherpad, Übung, Forum, Video, E-Portfolio, einen Home-, Chat- und FAQ-Button sowie zwei Bilder zur Visualisierung von „Blended Learning“.
“Produktionsablauf”: Ich habe gezeichnet, die Zeichungen eingescannt und anschließend mit GIMP bearbeitet. Dies wird so oft wiederholt und mit Feedback gepaart, bis man zufrieden ist.

Button_FAQ Button_Group Button_Home eportfolio_JUNE etherpadJUNE_NEW forumJUNE  HP_BL_ToDo HP_BL_Zyklus_NEW lerngruppeJUNE mail_JULY readJULY videoJUNE_circle WORK_NEW_JULY

Day of DH: What does a EuroMACHS-Student actually do all day?

„Was ich denn studiere?“ war eine oft gestellte Frage von anderen Erasmus Studenten dieses Sommersemester in Köln. Ich bezeichne es immer als „Digitales Kulturerbe“, da man sich mit diesem Begriff – so hoffe ich zumindest – etwas Besseres vorstellen kann, als unter der offiziellen Bezeichnung: European Multimedia Arts and Cultural Heritage Studies (= EuroMACHS). Ich bin Österreicher, der in Graz diesen Master studiert. Stets folgten fragende Gesichter, zweifelhaftes Nicken, Ungewissheit auf meine Ausführungen und Erklärungsversuche, was den “Digitales Kulturerbe” oder die Digital Humanities (=DH) seien. Im Zuge des Day of DH möchte ich den Versuch wagen an einem konkreten Beispiel aufzuzeigen was ein Student des “Digitales Kulturerbes” den Tag lang macht.

Im zweiten Studienjahr, wenn ich wieder in Graz bin, werden ich und meine KollegInnen das Hans Gros Kriminalmuseum, projektbegleitend, digitalisieren. Das erfolgt nicht in dem Sinne, dass wir Akten scannen oder Objekte fotografieren, sondern, dass wir Methoden und Tools der Informatik verwenden, um geisteswissenschaftliche Fragestellungen zu behandeln.
In diesem Museum sind Akten und Artefakten aus dem 19. und 20. Jahrhundert dokumentiert, die als Zeugen unterschiedlicher, zum Teil sehr makabere, Kriminalfälle der Steiermark gesehen werden können. Wie das Projekt umgesetzt wird steht noch aus. Ich für meinen Teil könnte mir sehr gut vorstellen, dass ein Computerspiel designt und implementiert wird, dass es einem Besucher ermöglichen würde, interaktiv und spielerisch, einen Kriminalfall dieser Zeit nachspielen zu können. Hier soll nicht der Schwerpunkt auf klassischer Rekonstruktion der Fälle gelegt werden, sondern auf die virtuelle Erfahrung einen historischen Fall selbst erleben zu können. Um dies umsetzen zu können, bedarf es sowohl geisteswissenschaftlicher Arbeit, um die Inhalte des Museums zu erfasse und zu analysieren, sowie dem technischem Know-how ein Computerspiel zu implementieren.

Zuerst zur Spielidee: Kommissar Gruber, die Spielfigur, muss in einem Detective-Adventure den Fall der vermissten Frau Josep, die im Jahre 1922 in Graz spurlos verschwunden ist, lösen. Nach einem kurzen Briefing mit einem Gendarmen marschiert Kommissar Gruber durch die virtuelle 3D-Welt, spricht mit NPC’s, sammelt Hinweise, dokumentiert diese in seinem Logbuch und muss Minispiele absolvieren. Jeder dieser Inhalte ist an den tatsächlichen historischen Fakten orientiert. So sollte die Geschichte um die ermordete Frau Josep, deren Leich1e in einer Säule monatelang eingegipst war, durch das Spielen erzählt werden, wie es ein Besucher im Kriminalmuseum in Graz vorfinden würde. Natürlich handelt es sich um ein sehr grausliches Thema, aber gerade das ist die Besonderheit dieses Museums und sollte sich auch im Spiel wiederfinden. Zu diesem Kriminalfall gibt es vom Kriminalmuseum ein Video.

Umgesetzt wird dieses Projekt im Zuge einer Gruppenarbeit in einem Seminar bei Prof. Thaller. Dazu wird die Game Engine Unity verwendet, in der man 3D Welten erstellen kann und mittels Scripting (JavaScript, C#) unterschiedliche Funktionalitäten implementieren kann. Weiteres werden Objekte mit 3D-Software wie Blender generiert, bzw. greifen wir in diesem Projekt, ganz im Sinne des Open Source Gedanken, auf bereits von anderen Personen erstellte Objekte, Scripts oder Inhalte zurück.

Zumindest werden nach diesen Ausführungen die Gesichter weniger fragend, das Nicken bestimmter und Ungewissenheit zerstreuter. Für mich ist genau das “Digitales Kulturerbe”.

– Christopher Pollin

True Styrian Detectiv: Game-Concept

Bild: Erster Spielweltentwurf
In einem Seminar an der Uni Köln während meines Erasmussemesters wird an einem Computerspiel gearbeitet.
Bei der Spielidee, die ich nun vorstellen will, handelt es sich um ein Detektive-Adventure das sich an “Under a Killing Moon” orientiert. Ein Charakter wird in Egoperspektive durch eine 3D-Welt manövriert und kann mit dieser Welt interaktiv agieren. So wird die Welt nach Hinweisen durchsucht, die gesammelt werden um einen Kriminalfall aufzudecken. Dazu werden Objekte gesucht, in einem Inventar abgelegt, Notizen und Informationen in einem Questlog gesammelt und Zeugen werden befragt und Gespräche mit anderen NPC geführt. Gespräche können unterschiedlich ausgehen, je nach dem welche Antwort vom Spieler verwendet werden.

Das besondere ist, dass der Kriminalfall ein historisches Faktum ist und im Hans Gros Kriminalmuseum der Universität Graz dokumentiert und ausgestellt wird. Somit handelt es sich bei der Spielwelt um eine (steirische) Stadt des 19./20. Jahrhundert. Wobei eine absolut realistische Rekonstruktion von Raum und Objekte zu zeitintensiv wäre, jedoch sollte klar erkennbar sein, dass es sich um einen Mordfall handelt, der im Kriminalmuseum historisch nachvollziehbar ist. Der Fokus liegt viel mehr darauf eine entsprechend Atmosphäre zu erschaffen, die das Erleben historischer Informationen ermöglicht. Ein solcher Fall, die zum Teil wegen ihrer absurden Geschichte von sich aus schon Potenzial haben, könnte z.B. folgender sein:  https://www.youtube.com/watch?v=QlqXOrceBVQ

Das Spiel soll in Unity verwirklicht werden. Objekte müssten mit Blender/3DMax generiert werden, bzw. kann man auf offene Objekte im Unity Asset Store zugreifen ( z.B. ein Holztisch). Je nach spielerische Komplexität müssten unterschiedliche Scripts erstellt werden, die dynamischen Umgang mit den Objekten und der Umwelt ermöglichen (öffnen von Türen, Gespräche führen, Questlog etc.)

Meinungen in Twitterdiskursen. Potenziale der automatisierten Inhaltsanalyse.

DHd-2015:

In den Politikwissenschaften und der Kommunikationswissenschaft ist es von zentraler Bedeutung Stimmungen politischer, gesellschaftlicher Meinungen einzufangen und diese in Modelle, Prognosen oder anderen Kontexte zu stellen. Soziale Medien können ein Medium sein, das dafür brauchbare Daten anbieten kann, da unterschiedliche Akteure dort politische Meinungen zwitschern. Ines Engelmann sprach an der DHd ob solche Meinungen mittels Computerlinguistik automatisiert gesammelt werden können. Eine manuelle Bearbeitung solcher Meinungen in tweets ist, verständlicherweise, zu ressourcenintensiv und ganz im Sinne der DH nähert man sich dem Thema aus einer methodischen Sicht, ob diese Methoden funktionieren können, bzw. wie weit man bereits Daten herausfiltern kann. Weiter Infos gibt es hier.

Ich sehe darin ein enormes Potenzial an unterschiedlichsten Daten, die man aus diesem Konvolut an unterschiedlichen Meinungen zu unterschiedlichen Themen sammeln kann und das nicht für die Kommunikationswissenschaften, sondern für alle Geisteswissenschaften, je nach dem was über das Medium twitter kommuniziert wird. Ich möchte zu dieser Herangehensweise noch hinzufügen, dass auf irgendeine Art und Weise, die Meinungen ,die heute auf twitter kommuniziert werden, für aktuelle, aber auch spätere Forschungen interessant sein werden. Ein Historiker in er Zukunft könnte sich durchaus für Meinungen unsere Zeit interessieren, jedoch bleiben die tweets, höchst wahrscheinlich, nicht erhalten. Aber sollten Daten, die für historische Forschung der Zukunft relevant sein könnten erhalten bleiben? Klingt dieser Formulierung nicht ein bisschen paradox? Sind dies dann überlieferte Traditions-Überreste. Droysen würde sich im Grabe umdrehen.

Aber Dokumentationen und Arbeiten, die, die Meinungen, basierend auf dieser Datengrundlage sammeln, sollten durchaus erhalten bleiben. Die vieldiskutierte Frage der DHd, ganz allgemein, ist dieses Problem.

Ich muss gleich mal meine politische Meinung twittern! Natürlich nur für die Wissenschaft und nicht weil ich mir wichtig vorkomme! 😛

Theorie 2: Wissenschaftsgeschichte und digitale Methoden. Eine datengestützte Untersuchung zu wissenschaftlichen Öffentlichkeiten

DHd-2015:

Matrin FECHNER gibt in seiner Präsentation auf der DHd ein Beispiel dafür, wie Daten für wissenschaftsgeschichtliche Fragestellungen gesammelt, geordnet und verwendet werden können. Die beiden Themen, die Spektralanalyse und der Laser, zu denen in wissenschaftlichen Publikationen und Zeitschriften in einem Zeitraum von 10 Jahren Metadaten gesammelt und ausgezeichnet wurden, dienen als Grundlage der Forschungsfragen. Metadaten die aus solchen Quellen bezogen werden können Sprache, Verlagsort, Autoren oder dergleichen umfassen. Notwendig für eine solche Herangehensweise sind Überlegungen welche Werkzeuge man dafür verwendet, um sowohl brauchbare, wie auch transparente Ergebnisse zu erhalten. Welche Sprache, welche Datenbank, welche Methoden werden verwendet um Daten aus den Quellen herauszuziehen, wo können Detailanalysen durchgeführt werden? Neben diesen Herausforderungen ist auch die Recherche nicht unproblematisch, da in den Katalogen in denen die Publikationen oder Zeitschriften gelistet sind, schlichtweg fehlen oder fehlerhaft sein können. Welche Erkenntnis lässt sich nun aus diesen gesammelten Daten extrahieren? Beispielsweise können so Konsistenzen oder Veränderungen der wissenschaftlichen Kommunikationsstrukturen und der Wissenschaftsorganisation in diesem Zeitraum, zu spezifischen Forschungsgebieten erkennbar gemacht werden. So sind England und Deutschland Forschungsräume zu diesen Themen die konsistent bleiben, wo hingegen Räume wie Spanien oder Österreich in der Erforschung des Lasers kaum bis nicht vorkommen bzw. neue Räume wie die USA oder die UdSSR im Laufe der Zeit stärker gewichtet vorzufinden sind.

Ein sehr interessanten und recht anschaulicher Vortrag, der ganz im Sinne der Tagung steht und an einem Beispiel exemplifiziert, wie die DH für die Geschichtswissenschaften ein Bündel an Werkzeugen und Methoden liefern kann, die Erkenntnisse aus großen Quellenbestände erzeugen kann, die ansonsten schwer erreicht werden können. Ganz zentral, und auch dies wird klar hervorheben, die Anwendung der Werkzeuge muss „richtig“ und nachvollziehbar vonstattengehen

-Christopher

Workshop 2: Computerlinguistische Methoden der Inhaltsanalyse in den Sozialwissenschaften

DHd-2015: e-Identity

Im zweiten Teil des Workshops wurde es nun praktisch und ganz konkret.  Wie kann eine so große Anzahl an Daten so strukturiert werden, dass sie auch verwendet werden können? Und zwar nicht von einem Experten auf diesem Gebiet (brücke-neu-bauend), sondern von Fachwissenschaftlern, also in diesem Fall Politikwissenschaftlern, die zu einer spezifischen Fragestellung eine große Textmenge als Quelle heranziehen wollen. Fritz Kliche, André Blessing und Jonathan Sonntag präsentieren die dafür notwendigen Werkzeuge.

Eine Explorationsdatenbank dient dazu die Rohdaten so aufzubereiten, dass sie eine geeignete Struktur haben. Dazu wird an Hand der Struktur der Texte bestimmte Regeln generiert, die anschließend auf den gesamten Textkorpus angewandt werden. Ein Zeitungsartikel endet mit einem Copyright-Part, was beispielsweise als Anker dient, oder ein Artikel beginnt mit einem Datum. Alles was dazwischen ist, wird als Fließtext erfasst. Das Datumsangaben können wiederum mittels eigener Regel als Metadaten herausgelesen werden. Vor der Ausgabe, die in unterschiedlichen Formaten umgesetzt werden kann, werden leere/defekte Artikel oder Dubletten ausgesondert, also Artikel die mehrfach vorkommen, oder schlichtweg für die Fragestellung unverwertbare sind. Ein Ergebnis könnte ein Excel-Sheet (natürlich auch andere Formate) sein, in dem, je nach Bedarf, Fließtexte oder Metadaten eine maschinell-verwendbare Struktur besitzen und somit für eine weitere Analyse geeignet sind.

Das hierfür implementierte Werkzeug ist der Complex Concept Builder (= CCB), mit webbasierter Oberfläche, mit dem man die aufbereiteten Rohdaten nun analysieren kann. Hier wird versucht die Inhalte der Texte, also die semantische Ebene, zu erfassen. Eine Erschließung des Inhaltes mit keywords alleine scheint nicht ausreichend zu sein, da Sprachen zu komplex sind. So können Wörter in Artikeln auftauchen, die gar nichts mit der gezielten Fragestellung zu tun haben. Sucht man Texte die das Thema Krieg behandeln, werden Namen von Staaten auftauchen. Bei Texten zum Thema Fußballmeisterschaft, werden möglicherweise die gleichen keywords aktiv. Um dennoch die richtigen Artikel zu finden, wird im CCB eine Wertung vorgenommen, ob ein Artikel zu dem Thema passt oder nicht (neben vielen anderen Funktionalitäten). Durch die manuelle Wertung lernt das System dieses Problem besser zu lösen. So weit habe ich das verstanden :). Weitere Information gibt es noch auf der Webpage des Projektes.

Für mich ein interessanter Einblick in ein neues Themenfeld. Ich habe in einem ersten Blogeintrag zur Dhd erwähnt, dass es mir an konkreten Beispielen fehlt. e-Identity scheint für mich ein ganz klares Projekt sein, das sich in die DH einbetten lässt. Der Mehrwert ist, dass große Textmengen, ( z.B. über 800.000 Artikel), auf einer semantischen Ebene bereinigt, die Möglichkeiten gibt Daten für Forschungsfragen zu generieren. Wiederum: Es wird eine Brücke gebaut, die auch Fachwissenschaftlern, wie auch Experten, begehen können.

Die Diskussion möchte ich unkommentiert mit Schlagwörtern sammeln :

  • viele Projekte, die parallel entwickelt werden
  • kann man eine gemeinsame Infrastruktur entwickeln?
  • gemeinsame Austauschformate?; offen für andere Daten
  • das nicht nur halbfertige Forschungsprojekte öffentlich machen, in der Entwicklung schon verwendbar
  • Schulung von Fachwissenschaftlern in den digitalen Methoden auf ihren eigenen Tagungen, damit die Erwartungen richtig geordnet werden können
  • Finanzierung solcher Projekte und ihre Weiterführung
  • was muss der Fachwissenschaftler, was muss der Informatiker können?
  • Lizenzen, Recht (Verwendung der Zeitungsartikel), hosting