Humboldt-Universität zu Berlin - Medienwissenschaft

Kolloquium

Stefan Höltgen: "Computer morden leise"

  • Was Kolloquium „Medien, die wir meinen“
  • Wann 16.11.2011 von 18:00 bis 20:00
  • Wo Sophienstraße 22a, R. 0.01 (Medientheater)
  • iCal
Mit dem Eingang der Computertechnologie aus dem militärischen in den zivilen Sektor erreichen Technoskepsis und Technophobie Mitte der 1950er-Jahre einen bis dahin ungekannten Höhepunkt. Das "Denkmonster" oder "Elektronengehirn", wie der Digitalcomputer seit dieser Zeit zugleich als Horrormaschine und anthropomorphe Apparatur gezeichnet wird, beginnt wesentliche Eigenschaften des Menschen zu simulieren: Die dritte industrielle Revolution befreit den Menschen nicht nur von der körperlichen Mühsal von Handwerk und Manufaktur sowie der Eintönigkeit industrieller Fertigung, sondern nunmehr sogar vom Denken. Die daraus erwachsenden Ängste werden durch die Kulturproduktion, allen voran die Science Fiction, aufgegriffen und hyperbolisch verzerrt dargestellt. Schon Mitte der 1950er-Jahre tritt der Computer - noch als eine militärische Cold-War-Maschine stigmatisiert - als ein potenzieller (Massen-)Mörder in Romanen und Filmen in Erscheinung.

Der Vortrag versucht die technologischen Bedingungen dafür herzuleiten und dann an ausgewählten Beispielen der Filmgeschichte diesen Topos in seinen drei Ausformungen zu skizzieren um ihn mit einer zweiten Diskursgeschichte, der des Serienmordes als einer "kalkulierten Todesmaschinerie" engzuführen. Beide Themen verbindet nämlich ein gemeinsamer "Vektor"; der als ein "Eindringen ins Private" skizziert werden kann. Dass die Computertechnologie dabei jedoch eine besonders subtile Vorgehensweise, ererbt aus Kybernetik und Koevolutionstheorie, an den Tag legt, bindet die in den Fiktionen überzeichnete Angstvorstellung zurück an jene Ausgangsfrage, inwieweit diese Maschinen den Menschen nicht bloß ersetzbar machen, sondern sie als moralische Wesen gar beseitigen und in einer "Technokratie der Computer" regelrecht für eigene Zwecke instrumentalisieren könnten.

Vortrag mit Filmbeispielen.

Humboldt-Universität zu Berlin | Institut für Musik­wissen­schaft und Medien­wissen­schaft | Medienwissenschaft |  ↳ Medientheorien | Kolloquium | Prof. Dr. Horst Völz: "Information und Verstärker - Gibt es eventuell doch ein Objekt Information?"

Prof. Dr. Horst Völz: "Information und Verstärker - Gibt es eventuell doch ein Objekt Information?"

  • Was Kolloquium „Medien, die wir meinen“
  • Wann 14.12.2011 von 18:00 bis 20:00
  • Wo Sophienstraße 22a, R. 0.01 (Medientheater)
  • iCal

Die meisten Verstärker können nur beschrieben, aber nicht erklärt werden. Erklären ist hierbei als Ableitung aus einem übergeordneten Allgemeinen zu verstehen – etwa so wie die Planetengesetze aus der Gravitation folgen. Dennoch sprechen viele Beispiele dafür, dass Verstärkung ein grundlegendes Prinzip sehr vieler Naturerscheinungen ist. Ohne sie wäre u. a. keine Evolution möglich. Wahrscheinlich werden daher auch Relais, Röhre und Transistor als so grundlegend anerkannt, dass diesen Erfindungen der Nobel-Preis zugesprochen wurde. Im Vortrag wird versucht, diese Schwierigkeiten ausführlicher anzugehen. Eine Schlussfolgerung könnte sein, dass der Verstärker das Fundament der Information ist und zwar so wie Stoff für die Chemie und Energie für die Physik.

Humboldt-Universität zu Berlin | Institut für Musik­wissen­schaft und Medien­wissen­schaft | Medienwissenschaft |  ↳ Medientheorien | Kolloquium | Sandra Michler: "Musikalische Notation vs. Klangschriften – eine technikhistorische und medienepistemologische Untersuchung"

Sandra Michler: "Musikalische Notation vs. Klangschriften – eine technikhistorische und medienepistemologische Untersuchung"

  • Was Kolloquium „Medien, die wir meinen“
  • Wann 04.01.2012 von 18:00 bis 20:00
  • Wo Sophienstraße 22a, R. 0.01 (Medientheater)
  • iCal

Die Notenschrift ermöglicht es, Musik schriftlich zu fixieren und dadurch reproduzierbar zu machen. Somit können Dinge und Phänomene, welche nicht existieren können, sichtbar gemacht werden.<br><br>Frühe Kulturen benutzten schon unterschiedliche Arten, Musik aufzuschreiben. Der erste Teil des Vortrages soll die geschichtliche Entwicklung der musikalischen Notation näher betrachten. Angefangen bei antiken Notationsverfahren, über das bedeutende Liniensystem von Guido von Arezzo, bis hin zur neuen grafischen Methode soll die dynamische Entwicklung der verschiedenen Notationssysteme kurz erläutert werden.<br><br>Die mit der Industrialisierung hervorgegangenen neuen mechanischen und elektrischen Geräte schufen Raum für neue Klänge und Kompositions- sowie Aufführungspraktiken, auf welche anschließend eingegangen werden soll. Notation und Reproduktion standen im 19. Jahrhundert in enger Verbindung zueinander. Den Grundstein für die akustische Klangaufzeichnung legte schließlich Thomas Alva Edison mit seinem Phonographen im Jahre 1877. Dieser war dazu in der Lage, menschliche Stimme und andere Töne aufzuzeichnen und wiederzugeben. Eine Verbesserung der Aufnahmen wurde schließlich durch das Grammophon und der Einführung der Schallplatte erreicht. Auch die Erfindung des Tonbandes schuf später neue kompositorische Möglichkeiten. Moderne Aufzeichnungsmethoden brachte allerdings auch Étienne-Jules Marey mit seiner graphischen Methode bzw. der Chronophotographie hervor. Diese ermöglichte eine graphische Fixierung von Bewegung in Raum und Zeit.<br><br>Viele Komponisten wollten sich schließlich im 20. Jahrhundert von den bisherigen Kompositionstechniken lösen, um mehr Raum für Kreativität, Inspiration und Improvisation zu schaffen. Sie experimentierten daher mit graphischer Notation, auf welche im Folgenden genauer eingegangen werden soll. In diesem Zusammenhang soll auch Bezug auf die Werke von Karlheinz Stockhausen, John Cage und Iannis Xenakis genommen werden.<br><br>Mit dem Einschreiten der Digitalisierung und der dadurch immer vielfältigeren technologischen Entwicklungen gibt es schließlich immer mehr Möglichkeiten, mit Visualisierungen und Notationen umzugehen. Neue mediale Gestaltungsmöglichkeiten finden sich hierbei in der modernen Klangkunst und im Sounddesign wieder.<br><br>Mit Beginn des elektronischen Zeitalters rückt auch der auditive Bereich immer stärker in den Vordergrund und drängt die visuelle Leitkultur allmählich in den Hintergrund. Ein weiterer Schwerpunkt des Vortrages beschäftigt sich demzufolge mit der verstärkten Ausprägung des Acoustic Space (McLuhan) und dem damit veränderten Raumverständnis. Mit den neuen technischen Möglichkeiten und der Einführung von Rundfunk und Fernsehen wird zunehmend die Bindung an den visuellen Raum gelöst. In den neuen Massenmedien sieht McLuhan daher eine Chance, wieder ein Gleichgewicht zwischen visuellem und akustischem Raum zu schaffen.<br><br>Die Musiknotation ist nicht nur eine Schnittstelle zwischen Subjekt und Objektwelt, sie ist auch ein Algorithmus und damit eine Handlungsanweisung, welche sich aus einer endlichen Folge von Regeln und bestimmten Elementaranweisungen zusammensetzt. Gerade für die bildenden Künste ist der Begriff der Notation als Funktion seiner Schnittstellen sehr wichtig geworden. Er erhielt somit in den 1950ern eine Bedeutung für die Form, den Sinn und das Vermächtnis eines Kunstwerkes. Die Algorithmen werden hierbei als Instrumente der Kunst verstanden und kommen sowohl in der bildenden Kunst, als auch in der Musik zum Einsatz. Die Idee des Algorithmus fand weiterhin u.a. auch Zuspruch in der Fluxus-Bewegung, im Happening und in der Op-Art.<br><br>Im letzten Teil des Vortrages soll auf algorithmische Kompositionssysteme und auf zukunftsweisende Techniken zur Erzeugung von Musik und der Zukunft von reaktiver Musik eingegangen werden. Abschließend soll versucht werden, einen Ausblick auf die künftige Entwicklung von Klangerzeugung und -visualisierung zu geben.<br><br>

Marc Schweska: "Zur letzten Instanz" (Lesung)

  • Was Kolloquium „Medien, die wir meinen“
  • Wann 11.01.2012 von 18:00 bis 20:00
  • Wo Sophienstraße 22a, R. 0.01 (Medientheater)
  • iCal
Aus dem Klappentext: Wenn die Freiheit sich zwischen den Zeilen findet, lautet die Faustregel: Ab durch die Mitte. Erzählt wird eine Ostberliner Geschichte von Aufbau, beflügelnden Verheißungen und schwärmerischen Versprechen nach dem Krieg bis ans Ende der 80er Jahre. Sie handelt von intimen Geständnissen, geheimdienstlichen Abteilungen, hochfliegenden und betonierten Träumen, von musikalischen und kybernetischen Visionen. Pircks senior assistierte zu realsozialistischen Zeiten noch dem Versprechen von Freiheit durch Exaktheit und Kalkül; Pircks junior lernt das "kybernetische Utopolis" nur noch als Computerprogramm der Stasi kennen, als Kultur der Kontrolle. Dieser Lemania Pircks, genannt Lem, den sein zukunftsfreudiger Vater noch "Kyberto Sputnik" taufen wollte, ist ein junger avantgardistischer Ostwilder von ganz eigener Lässigkeit, mehr interessiert an neuen Zeichen als an alten Signalen, zuhause zwischen Klubs und Kunst, ein verspielter Elektronikfreak, Musiker, Theaterbeleuchter an der "Komischen Oper" - und vor allem standhafter Verweigerer: Er manövriert sich durch den Schlamassel seines jugendlichen Lebens, dem die Wehrpflicht bevorsteht und der Absturz ins Erwachsenenleben. Lem, der gute Vatermörder, wird zudem Vater, doch was tun, wenn das ungeborene Kind mit seiner Mutter Ira über die Grenze ausreist...


Vita


Marc Schweska, geb. 1967 in Ost-Berlin, Ausbildung zum Elektroniker und Studium der Kulturwissenschaft. Langjährige berufliche Tätigkeit im Theaterbetrieb. Texte auf den Feldern der belletristischen Prosa, Kunst- und Literaturkritik sowie kulturwissenschaftliche Aufsätze (über Geheimhaltung und Täuschung, Machiavelli und den Machiavellismus). Veröffentlichungen u.a.: „Das Brettspiel Go. Möglichkeiten absehen, um weiterzukommen – Strategie als Lebenskunst“, in: Lettre International, Nr. 80 (2/2008); „'Is it useful to deceive the people?'.  Secrecy and Deception as Political Resources“, in: Police Forces. A Cultural History of an Institution, hg. v. Klaus Mladek (Studies in European Culture and History), New York: Palgrave Macmillan, 2007. „Zur letzten Instanz“ (Eichborn 2011) ist sein erster Roman.

"Kant für die Hand" (Buchpräsentation)

  • Was Kolloquium „Medien, die wir meinen“
  • Wann 18.01.2012 von 18:00 bis 20:00
  • Wo Sophienstraße 22a, R. 0.01 (Medientheater)
  • iCal

Wir erleben gegenwärtig einen Boom visualisierter Philosophie: Bücher wie der dtv-Philosophieatlas oder die „Logicomix“ erreichen hohe Auflagen, DenkWelten präsentiert als erstes Museum interaktive Philosophie-Exponate. Auch „Kant für die Hand. Die ‚Kritik der reinen Vernunft’ zum Basteln und Begreifen“ lässt Philosophie anschaulich werden. Beim Zusammensetzen des im Buch enthaltenen Bausatzes erschließen sich dem bastelnden Leser Schritt für Schritt Hintergründe, Aufbau, Begriffe und Argumente. Kants Gedankengebäude lässt sich nach wenigen Stunden buchstäblich be-greifen und mit einem Blick er-fassen. Wenn sich die „Kategorien“ wie Schubladen öffnen und die „Idee Gottes“ mit einem Griff federnd nach oben entfaltet, entsteht eine ungekannte Perspektive auf ein philosophisches Meisterwerk.

Der Vortrag vollzieht den Bastelprozess von „Kant für die Hand“ nach und mündet in einen Kant-Crashkurs. Anschließend wird die Frage gestellt, inwieweit der Buch-Bausatz über den didaktischen, populärphilosophischen Effekt hinaus auch epistemischen, medientheoretischen oder philosophiekritischen Wert hat. Kündigt visualisierte Philosophie einen Medienwandel in der Philosophie an?


Vita

Hanno Depner, 1973 in Kronstadt geboren, studierte Philosophie und Literaturwissenschaft in Berlin und Norwich/England. Er leitete fünf Jahre lang das Lektorat des Internationalen Literaturfestivals Berlin, schreibt derzeit für Kulturinstitutionen sowie Print- und Onlinemedien und lebt in Berlin. „Kant für die Hand“ ist sein erstes Buch.

Humboldt-Universität zu Berlin | Institut für Musik­wissen­schaft und Medien­wissen­schaft | Medienwissenschaft |  ↳ Medientheorien | Kolloquium | Matthias Planitzer (Charité): "Bildschirme in der Medizin. Die technische Schnittstelle zwischen Arzt und Patient – Möglichkeiten und Limitationen"

Matthias Planitzer (Charité): "Bildschirme in der Medizin. Die technische Schnittstelle zwischen Arzt und Patient – Möglichkeiten und Limitationen"

  • Was Kolloquium „Medien, die wir meinen“
  • Wann 08.02.2012 von 18:00 bis 20:00
  • Wo Georgenstraße 47, R. 0.01 (Medientheater)
  • iCal

Bildschirme sind aus der modernen Medizin nicht mehr wegzudenken. Von den ersten Röntgenplatten, über elektronische und digitale bildgebende Verfahren, bis hin zu operativen Techniken der Schlüsselloch- und robotischen Chirurgie lässt sich eine klare Tendenz ablesen: Die Distanz zwischen Patient und Arzt verringert sich zusehends, wird vollends überwunden, bis schließlich der Behandelnde immer weiter in den Behandelten eindringt.

Einen wesentlichen Anteil an dieser Entwicklung tragen Bildschirme aller Art, indem sie als Schnittstelle zwischen Arzt, Patient und Technologie eintreten. Sie fungieren als Bildsyntheseapparate, die umfangreiche Datensätze unterschiedlicher physikalischer Analyseverfahren in intelligible Bilder umwandeln. Auf diese Weise werden die etwa durch Computertomographie oder Ultraschall abstrahierten Informationen mithilfe von Bildschirmen re-figuriert.

Der Einsatz bildgebender Verfahren sowie der Bildschirme stößt jedoch an Limitationen, die sich direkt aus ihrer Natur ergeben. Die aufwendigen Prozesse und Algorithmen, welche auf eine möglichst objektive Bildproduktion abzielen, sind mit verschiedenen Fehlern behaftet, die sich hinter der definitiven Bilddarstellung verbergen und nur selten sichtbar werden. Neben technischen Einschränkungen sind auch betrachterseitige Fehlerquellen, v.a. der optischen Wahrnehmung, für eine Verzerrung des Bildinhaltes auszumachen. Das geflügelte Wort "Don't treat the picture, treat the patient" ist jedem Arzt geläufig: Es warnt vor blindem Technikglauben, der sich über der hohen Zuverlässigkeit bildgebender Verfahren erhebt.

Die Kurzpräsentation soll einen Überblick über den Einsatz von Bildschirmen in der modernen Medizin geben und dabei Limitationen und Fehlerquellen aufzeigen. Es werden laienverständlich wesentliche Charakteristika einzelner Bildqualitäten aufgezeigt und in den klinischen Kontext eingebettet. Dabei wird ein praxisnaher Einblick in den ärztlichen Alltag gegeben und auf diese Weise eine Grundlage für die folgende Diskussion zwischen Ärzten, Studenten des Reformstudiengangs Medizin und dem restlichen Publikum geschaffen.

Humboldt-Universität zu Berlin | Institut für Musik­wissen­schaft und Medien­wissen­schaft | Medienwissenschaft |  ↳ Medientheorien | Kolloquium | Joschka Rugo: "Bewusstseinsveränderungen durch moderne Medien" (Masterarbeit)

Joschka Rugo: "Bewusstseinsveränderungen durch moderne Medien" (Masterarbeit)

  • Was Kolloquium „Medien, die wir meinen“
  • Wann 15.02.2012 von 18:00 bis 20:00
  • Wo Georgenstraße 47, R. 0.01 (Medientheater)
  • iCal

Noch nie war unsere
Welt medial so durchdrungen, wie heute. Das Arbeiten am Computer ist
eine Selbstverständlichkeit, für tägliche Wege steht das
internetfähige Smartphone bereit und für die Freizeit das
Fernsehen, Radio und eine Fülle an Möglichkeiten im Internet. Kaum
jemand kann sich dem Kontakt mit Medien noch entziehen – und kaum
jemand will es. Unter diesen Umständen sollte man annehmen, dass
mögliche Auswirkungen der permanenten Mediennutzung besonders gut
untersucht sind, eben weil so viele Menschen betroffen sind.
Tatsächlich gibt es aber erst wenig empirische Befunde – was teils
dem geringen Alter der Medien, teils der fehlenden Technik zur
Untersuchung von Auswirkungen und zuletzt auch fehlendem Interesse,
geschuldet ist.<br><br>In der Masterarbeit
„Bewusstseinsveränderungen durch moderne Medien“ wird daher
ergründet, welche Auswirkungen der Konsum moderner Medien und
Medientechnologien auf das menschliche Bewusstsein haben. Dazu werden
ausgewählte Medientheorien und philosophische Konzepte, die sich mit
Bewusstseinsveränderungen auseinander setzen, analysiert und
anschließend mit Forschungsergebnissen (vorwiegend) der
Neurobiologie in Verbindung gebracht, um so ihre eventuelle
Aktualität und Evidenz zu bezeugen.<br><br>Im ersten Teil des
Vortrags werden einige grundlegende philosophische Fragen
Beantwortung finden, deren Klärung zur weiteren Behandlung des
Themas unerlässlich sind: Was ist Bewusstsein, bzw. mit welchem
definitorischen Begriff wird es in dieser Arbeit verhandelt? Kann man
das menschliche Gehirn – als physischen Ort des Bewusstseins –
als Medium des Denkens bezeichnen?<br><br>Im zweiten Teil des
Vortrags wird die Theorie der „Noosphäre“ - der denkenden
Schicht der Erde – des französischen Theologen Pierre Teilhard de
Chardin vorgestellt. Dieser sah in Bewusstseinsveränderungen nicht
nur die nächsten Schritte der Evolution, sondern beschrieb in seiner
vom „Aufstieg des Bewusstseins“ gekennzeichneten Kosmogenese auch
verblüffend genau Phänomene, die heute als realisiert bezeichnet
werden können.<br><br>Im letzten Teil des
Vortrags werden die evidenten Aspekte Chardins Theorie anhand der
Vorstellung von aktuellen Studienergebnissen erläutert.<br><br>

Humboldt-Universität zu Berlin | Institut für Musik­wissen­schaft und Medien­wissen­schaft | Medienwissenschaft |  ↳ Medientheorien | Kolloquium | Prof. Dr. Horst Völz: "Ursache, Wirkung und Zufall - Zeitpfeil und Irreversibilität"

Prof. Dr. Horst Völz: "Ursache, Wirkung und Zufall - Zeitpfeil und Irreversibilität"

  • Was Kolloquium „Medien, die wir meinen“
  • Wann 16.05.2012 von 18:00 bis 20:00
  • Wo Georgenstraße 47, R. 0.01 (Medientheater)
  • iCal

Subjektiv sind wir fest von der Kausalität gemäß Ursache -> Wirkung überzeugt. Das folgt u. a. aus unserem täglichem Erleben sowie der sequentiellen Sprache und dem damit verbundenem Denken. Doch zeitliche Abfolge ist nicht immer gleich Ursache und Wirkung. Hierzu gibt es viele Fälle der Synchronität. Alle physikalischen Gesetze verlangen sogar Reversibilität aus Gegenteil von Ursache -> Wirkung. Außerdem kennen wir auch den Zufall, den die Quantenphysik sogar verlangt. Dieser Widerspruch bedarf einer Erklärung, die hier auf mehrfache Weise versucht wird. U. a. wird gezeigt, wie ein Zusammenwirken von reversiblen Teilen zur Irreversibilität führen kann. Ein weiteres Ergebnis könnte sein, dass Ständigkeit und binäre Logik nicht allgemein gültig sind.

 

Humboldt-Universität zu Berlin | Institut für Musik­wissen­schaft und Medien­wissen­schaft | Medienwissenschaft |  ↳ Medientheorien | Kolloquium | Dr. Andreas Jacke: Lars von Triers Europa (1991) – erste Anzeichen eines melancholischen Monuments

Dr. Andreas Jacke: Lars von Triers Europa (1991) – erste Anzeichen eines melancholischen Monuments

  • Was Kolloquium „Medien, die wir meinen“
  • Wann 18.04.2012 von 18:00 bis 20:00
  • Wo Georgenstraße 47, R. 0.01 (Medientheater)
  • iCal

Ausgehend von einigen grundlegenden Überlegungen aus Friedrich Nietzsches kleiner Schrift Vom Nutzen und Nachteil der Historie für das Leben sollen verschiedene Möglichkeiten ein geschichtliches Gedächtnis zu kultivieren beschrieben und dann anhand des Films Europa in einem filmgeschichtlichen Sinne erläutert werden. Dabei gerät das Monumentale sowohl als positives Vorbild wie auch als negative melancholische Fixierung genauso in den Horizont wie die Frage der unterschiedlichen Formen von Archivierung.

Humboldt-Universität zu Berlin | Institut für Musik­wissen­schaft und Medien­wissen­schaft | Medienwissenschaft |  ↳ Medientheorien | Kolloquium | Christian Benckendorff: In medias res(onanz): Medientheorie und -geschichte, auf einen Begriff gebracht. (Magisterarbeit)

Christian Benckendorff: In medias res(onanz): Medientheorie und -geschichte, auf einen Begriff gebracht. (Magisterarbeit)

  • Was Kolloquium „Medien, die wir meinen“
  • Wann 25.04.2012 von 18:00 bis 20:00
  • Wo Georgenstraße 47, R. 0.01 (Medientheater)
  • iCal

In der Physik versteht man unter Resonanz die Übereinstimmung der Eigenfrequenz eines schwingungsfähigen Systems mit einer äußeren Kraft, die periodisch auf das System einwirkt, wodurch besonders große Amplituden erzielt werden. Ihr breites Anwendungsspektrum (vgl. hierzu Cramer 1998) umfasst so unterschiedliche Felder wie die Chemie, die Medizin oder die Akustik. Auch die Geisteswissenschaft ist - vermeintlich im Zuge des sogenannten >acoustic turn< - auf ihren Begriff aufmerksam geworden (Lichau et. al. 2009).

Mit der Untersuchung von >Resonanz< in Medien ist in dieser Arbeit keine statistische Markt- oder Zielgruppenforschung gemeint: vielmehr geht es um die Modellierung von Medien, ihrer Theorie und -geschichte mittels eines Begriffs, der als Zeitfigur etwa dem zyklischen Geschichtsmodell von McLuhan zugrunde liegt.

Am Beispiel von Heinrich Hertz’ Experimenten in Karlsruhe, welche die von Maxwell bereits vermutete Existenz elektromagnetischer Wellen experimentell bestätigen, untersucht diese Magisterarbeit ihre operative Bedeutung im Bezug auf die Entwicklung der drahtlosen Kommunikation herauszustellen. Ziel ist es zu zeigen, dass jene Figur aus dem Bereich des Akustischen, die Veit Erlmann neben der Vernunft als zweite Säule der Moderne bezeichnet (Erlmann 2010), hinsichtlich der Modellierung und Erkenntnis von (technischen) Medienprozessen, die wesentlich als Zeitprozesse aufzufassen sind (Ernst 2009), zahlreiche Anknüpfungspunkte bietet.

Genannte Quellen:

Cramer, Friedrich: Symphonie des Lebendigen. Versuch einer allgemeinen Resonanztheorie, Frankfurt am Main und Leipzig: Insel Verlag, 1998
Ernst Wolfgang: Chronos und Kairos. Theorien zu medieninduzierten Zeitereignissen, Vorlesung im Sommersemester 2009, online verfügbar unter: http://www.medienwissenschaft.hu-berlin.de/medientheorien/forschung/skripte
Erlmann, Veit: Reason and Resonance. A History of Modern Aurality, New York: Zone Books, 2010
Lichau, Karsten/ Traczyk, Viktoria/ Wolff, Rebecca (Hg.): Resonanz. Potentiale einer akustischen Figur, München: Wilhelm Fink, 2009


Humboldt-Universität zu Berlin | Institut für Musik­wissen­schaft und Medien­wissen­schaft | Medienwissenschaft |  ↳ Medientheorien | Kolloquium | Christoph Dross: Radio als Erkenntnismedium des Netzes – Grenzen von Heterarchie und Dezentralität (Masterarbeit)

Christoph Dross: Radio als Erkenntnismedium des Netzes – Grenzen von Heterarchie und Dezentralität (Masterarbeit)

  • Was Kolloquium „Medien, die wir meinen“
  • Wann 02.05.2012 von 18:00 bis 20:00
  • Wo Georgenstraße 47, R. 0.01 (Medientheater)
  • iCal

Die Möglichkeit des hierarchiefreien, weltweiten Signalaustauschs in einem dezentralen Netzwerk scheint sich medial mit dem Internet und seinen Diensten wie dem World Wide Web realisiert zu haben. Zudem ist der Netzwerkzugang für den Großteil der Nutzer annähernd barrierefrei und allgegenwärtig. Allerdings existiert die Idee eines solchen Netzwerkes mit der unmittelbaren Beteiligung einer ganzen Gesellschaft schon während der Anfänge des Radios.

Bertolt Brecht stellt angesichts dieser Technologie in seiner sogenannten Radiotheorie die Möglichkeit in Aussicht, dass jeder Nutzer in der Lage sei, weitgehend unabhängig und selbstständig Signale zu senden und zu empfangen. Dabei setzt er ganz auf die Hardware des Radios, die diese Unabhängigkeit von zentralen Anlaufstellen oder kontrollierten Signalwegen ermöglichen soll. In der alltäglichen Praxis hat sich allerdings der Aufbau eines solchen rhizomatischen Signalnetzwerkes (zumindest in Deutschland) kaum durchgesetzt, Radio blieb für die allermeisten Nutzer, trotz des Baukastens einer Medientheorie, ein Rezeptionsmedium.

In dem Vortrag sollen anhand einer technischen Überprüfung der Thesen Brechts und einer historisch-vergleichenden Betrachtung der Entwicklung des Radios, unter besonderer Beachtung der Amateurfunkbewegung, in den USA und Deutschland zunächst einige Möglichkeiten und Grenzen eines dezentralen und hierarchiefreien Netzes ausgelotet werden.

Im zweiten Teil soll der Versuch unternommen werden mit Hilfe dieser Erkenntnisse, die Möglichkeiten des Internet und des World Wide Web in Bezug auf dessen dezentrale und heterarchische Organisation an Hand aktueller Beispiele zu diskutieren. Dabei soll sich auch hier auf die technische Infrastruktur des Netzes konzentriert werden: Inwieweit sind Protokolle notwendig, um einen Signalaustausch zu organisieren und damit zu hierarchisieren? Kann Cloud-Computing als Beispiel für Zentralisierungstendenzen gelten? In wie fern lassen sich Parallelen bei Zentralisierungs- und Hierarchisierungstendenzen der Netzwerke Radio und Internet erkennen bzw. welche Differenzierungen sind vonnöten?

Aufgrund der epistemologischen Ausgangssituation der Arbeit soll außerdem ein Exkurs zum Phänomen Internetradio geführt werden. Dabei stellt sich vor allem die Frage, inwiefern sich Brechts Idee von einem Radionetzwerk hier realisiert hat. Technische Beschränkungen zumindest scheinen nicht als Grund für die ausbleibende Umsetzung seiner Idee zu genügen.

Humboldt-Universität zu Berlin | Institut für Musik­wissen­schaft und Medien­wissen­schaft | Medienwissenschaft |  ↳ Medientheorien | Kolloquium | Julian Klein: perSPICE!: Zur Dynamik bewegter Körper – Grundlagen einer Theorie der ästhetischen Relativität

Julian Klein: perSPICE!: Zur Dynamik bewegter Körper – Grundlagen einer Theorie der ästhetischen Relativität

  • Was Kolloquium „Medien, die wir meinen“
  • Wann 09.05.2012 von 18:00 bis 20:00
  • Wo Georgenstraße 47, R. 0.01 (Medientheater)
  • iCal

The spice of perception, die Würze unserer Wahrnehmung, ist das ästhetische Erleben. Dieser Modus, in dem die Wahrnehmung selbst spürbar wird, durchzieht unser Leben. In der künstlerischen Erfahrung interferieren mehrere Wirklichkeiten und Rahmungen miteinander, auch sie werden im künstlerischen Modus spürbar und präsent. Dieser Modus der gefühlten Rahmung begleitet unsere Konstruktion der Wirklichkeit. Ästhetik und Physik teilen eine bisher unterschätzte Analogie: Die physikalischen Konzepte des Relativitätsprinzips und der Dekohärenz lassen sich nutzen, um das Kontinuum zwischen dem flüchtigen ästhetischen Erleben und der Emergenz persistierender künstlerischer Objekteigenschaften zu beschreiben.

Literatur siehe http://www.julianklein.de > Texte

 

Bio

Der Regisseur und Komponist Julian Klein ist Direktor des Instituts für künstlerische Forschung Berlin und künstlerischer Leiter der Gruppe a rose is. Er lehrt Regie an der Universität der Künste Berlin sowie Performance und interdisziplinäre Projektentwicklung an der Hochschule für Musik und Darstellende Kunst Frankfurt am Main. Derzeit ist er auch Gastwissenschaftler am Institut für Verhaltens- und Neurobiologie der Freien Universität Berlin / Exzellenzcluster „Languages of Emotion“. Er war Mitglied der Jungen Akademie an der Berlin-Brandenburgischen Akademie der Wissenschaften und der Deutschen Akademie der Naturforscher Leopoldina. Er studierte Komposition, Musiktheorie, Mathematik und Physik und war Regieassistent und Bühnenkomponist. Seine künstlerische Forschung umfasst die Neuroästhetik, Sonifikation, Rahmung, Performativität und Spieltheorie sowie das emotionale Erleben. Seine aktuelle Inszenierung "Hans Schleif" am Deutschen Theater Berlin wurde für den Friedrich-Luft-Preis nominiert.

http://www.artistic-research.de

 

Nikita Braguinski: "Die Spielkonsole Atari 2600 und das westliche Tonsystem"

  • Was Kolloquium „Medien, die wir meinen“
  • Wann 30.05.2012 von 18:00 bis 20:00
  • Wo Georgenstraße 47, R. 0.01 (Medientheater)
  • iCal

Die Spielkonsole Atari 2600 (auch unter dem Namen Atari VCS bekannt) war seit ihrem Verkaufsbeginn in 1977 bis in die 1980-er Jahre weit verbreitet. Das Gerät erschien in einer Millionenauflage und beherrschte in der Zeit seiner Popularität die Wohnzimmerfernseher vieler Familien der industrialisierten Welt.

Die Spielzeit konnte sich bei jedem einzelnen Benutzer dieser Konsole über die Jahre auf unzählige Stunden ansammeln, in denen der Spieler oder die Spielerin nicht nur visuellen, sondern auch akustischen Signalen der Atari 2600 ausgesetzt war. Dabei verfügte die Konsole konstruktionsbedingt über einen Vorrat an Tönen, der einer völlig anderen inneren Logik folgte, als das dem westlichen Hörer allgemein bekannte Tonsystem.

Dieser Tonvorrat, den ich im Vortrag das "Atari-2600-Tonsystem" nennen werde, erlaubte eine nur sehr ungenaue Annäherung an die Stufen des westlichen Tonsystems. Er stellte die Programmierer vor die Wahl, entweder im westlichen System mehr oder weniger schiefe Töne zu produzieren oder aber sich der fremden, im wahrsten Sinne des Wortes unmenschlichen Logik des "Atari-2600-Tonsystems" zu stellen und mit diesem System zu komponieren.

Der Vortrag wird das Funktionsprinzip der Tonerzeugung im TIA-Chip der Konsole beleuchten, das zur Entstehung des "Atari-2600-Tonsystems" führte und die unterschiedlichen Herangehensweisen der Programmierer im Umgang mit dem Problem der Fremdartigkeit der von der Konsole produzierten Tonstufen anhand von einzelnen Spielen erläutern.


Elizabeth Skadden: Communist Cassette Tape Culture

  • Was Kolloquium „Medien, die wir meinen“
  • Wann 23.05.2012 von 18:00 bis 20:00
  • Wo Georgenstraße 47, R. 0.01 (Medientheater)
  • iCal

In former Communist East Germany and Poland, cassette tapes occupied a unique role as the point of connection of a micro-community of musicians who used media to defy a political system. Forbidden by the government, Western music was smuggled in and then dubbed to hundreds of tapes for distribution within the scene. These cassette tapes are now mostly extinct as their owners usually threw away the Eastern counterparts to Western records they were able to access after the Wall fell. My art practice is concerned with the resurrection of abandoned media and places as related to media archeology. I am most interested in documenting through my research and artistic practice the networks that existed to distribute these tapes as well as the subtle physical and audio variations between each tape and how they created the personality of the music for the listener.

Elizabeth Skadden
www.elizabethskadden.com

 

Humboldt-Universität zu Berlin | Institut für Musik­wissen­schaft und Medien­wissen­schaft | Medienwissenschaft |  ↳ Medientheorien | Kolloquium | Dr. Stefan Höltgen/Johannes Maibaum: "Z80 – Medienarchäologie meets Platform Studies"

Dr. Stefan Höltgen/Johannes Maibaum: "Z80 – Medienarchäologie meets Platform Studies"

  • Was Kolloquium „Medien, die wir meinen“
  • Wann 06.06.2012 von 18:00 bis 20:00
  • Wo Georgenstraße 47, R. 0.01 (Medientheater)
  • iCal

Mit dem Erscheinen der ersten 8-Bit-Mikroprozessoren verändert sich die gesamte Welt der elektronischen Datenverarbeitung. Nachdem Intel 1974 mit dem 8080 einen Standard definiert hatte, hielten Mikroprozessoren in immer mehr günstige und kleine Computer-Plattformen Einzug. Das Resultat davon war eine ungeahnte Popularisierung des Mikrocomputers, der nun auch erstmals für rein private Zwecke – insbesondere zum Spielen und Programmieren – zur Verfügung stand. Der enormen Einfluss, den diese als Hobby betriebenen Tätigkeiten für die Entwicklung von Hardware, Software und Betriebssystemen hatten, ist noch nicht in Gänze (und erst recht nicht im Detail) untersucht.

1976 folgte dem Intel-Chip vom selben Ingenieur (Federico Faggin) konstruiert der Z80-Mikroprozessor, welcher mit schätzungsweise 600 Implementierungen in unterschiedlichste Computertypen bis Ende der 1980er-Jahre der erfolgreichste dieser Prozessoren war. Der Z80 definiert eine medienhistorisch hochinteressante Nische, weil er den 8080 ablöst und um etliche Funktionen erweitert, die ihn besonders komfortabel programmierbar machen. Zudem sorgen aber sein besonderer Konstruktionstyp sowie seine disparaten Implementierungsumgebungen dafür, dass die Kapazitäten von Z80-Plattformen selbst heute noch nicht in vollem Umfang erschlossen worden sind.

Im Vortrag stellen wir eine dieser historischen Plattformen – Amstrads 1984-85 erschienene CPC-Homecomputer-Reihe –, auf welcher seit zwei Semestern auch unser Assembler-Kurs durchgeführt wird, vor. An praktischen Beispielen maschinennaher Grafik- und Soundprogrammierung demonstrieren wir die Möglichkeiten dieser spezifischen Hardware-Umgebung und versuchen die historischen und elektronischen Besonderheiten der Z80-Plattform für eine medienarchäologische Erweiterung der jüngst in den USA (am MIT) von Ian Bogost und Nick Montfort gegründeten „Platform Studies“ zu diskutieren.

Wider „die herbeigeredete Angst vor Assemblern und Kaltstarts“! (F. Kittler)

 

Humboldt-Universität zu Berlin | Institut für Musik­wissen­schaft und Medien­wissen­schaft | Medienwissenschaft |  ↳ Medientheorien | Kolloquium | Peggy Sylopp: "Medienkunst - Mittlerin zwischen Gesellschaft und neuen Technologien?"

Peggy Sylopp: "Medienkunst - Mittlerin zwischen Gesellschaft und neuen Technologien?"

  • Was Kolloquium „Medien, die wir meinen“
  • Wann 13.06.2012 von 18:00 bis 20:00
  • Wo Georgenstraße 47, R. 0.01 (Medientheater)
  • iCal

(Medien-)Kunst ist eng verflochten mit technologischen, gesellschaftlichen und politischen Entwicklungen und hat schon immer eine avantgardistische Vorreiterrolle im Umgang mit Medien, digitaler Vernetzung und neuen Technologien inne gehabt. So produzierte der Komponist Alvin Lucier bereits 1965 Musik mit Gehirnströmen, der elektronische Musikpionier Erkki Kureniemi baute 1972 den vielleicht ersten digitalen Synthesizer der Welt, eines der ersten weltweiten digitalen Netzwerke, ARTEX, entstand 1980 zwischen Künstlern. Seit 2004 vergibt das Medienkunst-Festival Ars Electronica die Goldene Nica für Digitale Commuties wie WikiPedia, WikiLeaks und den Chaos Computer Club. Die weltweite durch digitale Vernetzung entstandene und agierende Bewegung Occupy besetzt aktuell die Berlin Biennale 7.

Kunst wird zum Medium für politische Forderungen, provoziert, macht durch aisthetische Ansätze Technologien vielfältig erfahrbar, forscht, klärt auf und setzt Visionen um, lange bevor sie von der Gesellschaft (an-)erkannt werden.

Als Hintergrund und Motivation für diesen Ansatz dient eine von mir durchgeführte qualitative Studie im Rahmen meiner Masterarbeit zum Master of Public Policy an der Humboldt-Viadrina School of Governance. Dazu habe ich Menschen (u.a. Prof. Wolfgang Ernst) verschiedener Altersgruppen und Hintergrund, mit und ohne Technik-Affinität befragt und dabei Technikfremdheit festgestellt, deren vielfältige Ursachen beispielsweise in Gender-Klischees, mangelnden soziologischen Ansätzen, Ignoranz politischer Entscheidungsträger oder wirtschaftlichen Interessen liegen.

Bei dieser Lecture fasse ich die Ergebnisse meiner Studie zusammen und stelle einige künstlerische Arbeiten an der Schnittstelle zwischen Medienkunst, Vernetzung und neuen Technologien vor. Anschließend möchte ich mit Euch diskutieren, ob und wie aktuell in einer Zeit im Spannungsfeld zwischen Internetexhibitionismus und Vorratsdatenspeicherung künstlerische Ansätze eine Schlüsselrolle zwischen neuen Medientechnologien und Gesellschaft übernehmen können.


Links:

ARE / artistic research entcounters http://artisticresearchencounters.blogspot.de/

generative.org http://www.generative.org

 

Arndt Niebisch: "Dada Computing. Raoul Hausmanns Rechenmaschine"

  • Was Kolloquium „Medien, die wir meinen“
  • Wann 27.06.2012 von 18:00 bis 20:00
  • Wo Georgenstraße 47, R. 0.01 (Medientheater)
  • iCal

Der Dadaist Raoul Hausmann entwickelte zusammen mit dem Ingenieur Daniel Broido in den frühen dreißiger Jahren eine “Rechenmaschine”, die Hausmann noch 1966 als ersten “kybernetischen Computer” ausgab. In meinem Vortrag möchte ich klarstellen, was diese “Rechenmaschine” in Wirklichkeit war, zeigen wie dieses Gerät an Hausmanns synästhetische bzw. optophonetische Weltanschauung anschliesst und diskutieren wie er versuchte das dadaistische Verfahren der Collage zur Entwicklung eines Patentes zu benutzen.

Kurzbio

Arndt Niebisch hat an der Johns Hopkins University, Baltimore über die Störungsästhetik des italienischen Futurismus und deutschen Dadaismus promoviert und ist Assistant Professor of German and European Studies an der University of North Carolina at Greensboro. Im Erscheinen sind seine zwei Buchprojekte “Media Parasites in the Early Avant-Garde” und “Dada-Wissenschaft. Raoul Hausmanns wissenschaftliche und technische Schriften”.

Humboldt-Universität zu Berlin | Institut für Musik­wissen­schaft und Medien­wissen­schaft | Medienwissenschaft |  ↳ Medientheorien | Kolloquium | Henry Westphal: "Der SPACE AGE, ein Tischrechner in diskreter Transistortechnik"

Henry Westphal: "Der SPACE AGE, ein Tischrechner in diskreter Transistortechnik"

  • Was Kolloquium „Medien, die wir meinen“
  • Wann 04.07.2012 von 18:00 bis 20:00
  • Wo Georgenstraße 47, R. 0.01 (Medientheater)
  • iCal

Der SPACE-AGE entspricht in seiner Funktion und Bedienungsweise exakt einem einfachen handelsüblichen Taschenrechner mit den 4 Grundrechenarten. Er arbeitet jedoch ohne einen einzigen integrierten Schaltkreis. Stattdessen tun ca. 3'400 Transistoren, ca. 24'000 Dioden und 9 Nixie-Ziffernanzeigeröhren ihren Dienst. Der SPACE AGE ist im Rahmen einer Lehrveranstaltung an der TU-Berlin in Zusammenarbeit mit der TIGRIS-Elektronik GmbH in den Jahren 2010 bis 2012 entstanden.

Der Kern des SPACE AGE ist eine universelle 4 Bit CPU. Ein fest installiertes Programm gibt ihm das Verhalten eines Taschenrechners. Dieses Programm besteht aus ca. 1000 Zeilen aus 21 Bit Maschinencode. Circa 800 Leuchtdioden an allen Speicherstellen und wichtigen Signalen visualisieren den Rechenprozess. Für eine einprägsame Visualisierung besteht die Möglichkeit, den Takt zu verlangsamen.

Der SPACE-AGE erlaubt das sinnliche Erfassen und das Verständnis der grundlegenden Funktionsweise eines Computers.Jedes Schaltelement ist mit dem bloßen Auge sichtbar. Die Funktion jedes Bauelements ist für sich selbst sofort verständlich. Durch die Zusammenschaltung der Bauelemente entsteht jedoch eine gänzlich neue Qualität. Die Maschine rechnet, eine Tätigkeit, die früher einmal ausschließlich dem menschlichen Gehirn vorbehalten war.

Heute gehören leistungsstarke, mobile Computer zum Alltag, man denke etwa an Smartphones oder Digicams. Der SPACE AGE lässt den Betrachter die Faszination, die Computer in frühren Jahrzehnten, in denen sie ehrfürchtig als "Elektronengehirne" bezeichnet wurden, einmal ausübten, erahnen. Der Vortrag erklärt die Funktion des SPACE AGE, stellvertretend für die Grundprinzipien jedes Computers, ausgehend von der grundlegenden Funktion der Schaltelemente über Zahlendarstellung, Speicherung, Verrechnung bis hin zur ereignisabhängigen Programmsteuerung mit bedingten Sprüngen. Außerdem wird der SPACE AGE mit heutigen Rechnern verglichen und wird dargestellt, wie der der Rechner Schritt für entwickelt, aufgebaut und in Betrieb genommen wurde, wobei auch unerwartete Ereignisse bewältigt werden mussten.

Nicht zuletzt können alle Zuhörer/innen selbst am im Medientheater aufgebauten SPACE AGE rechnen und, mit dem dem zum SPACE-AGE gehörenden Testgerät selbst eine Logikbaugruppe auf der Binärsignalebene testen. Nicht zuletzt können Sie auch auf der in der Entwicklungsphase genutzten Simulation des SPACE AGE auf einem heutigen FPGA-Logikchip rechnen, dieser Chip in der Größe einer 2 Euro-Münze ist mit dem gesamten SPACE AGE zu gerade mal 11% ausgefüllt.

 

Humboldt-Universität zu Berlin | Institut für Musik­wissen­schaft und Medien­wissen­schaft | Medienwissenschaft |  ↳ Medientheorien | Kolloquium | M.A. Paul Feigelfeld: "Über Reste. 'Unvollständigkeit' als operatives Medien-Epistem von China bis Europa"

M.A. Paul Feigelfeld: "Über Reste. 'Unvollständigkeit' als operatives Medien-Epistem von China bis Europa"

  • Wann 31.10.2012 von 18:00 bis 20:00
  • Wo Georgenstraße 47, R. 0.01 (Medientheater)
  • iCal

 

"Je trouve deux limites que la raison nous prescrit, les voicy, 1) Il est necessaire de continuer la synthese jusqu'à ce qu'on la puisse changer en Analyse, 2) il est utile de continuer la synthese jusqu'à ce qu'on voye des progressions à l'infini, 3) quand il y a quelques beaux theoremes, surtout qui servent à la practique il est bon de les marquer aussi. Mais la premiere regle suffit pour le necessaire." - G.W. Leibniz

Der Vortrag untersucht die operative Funktion von Unvollständigkeiten in abendländischen Zeichensystemen, die grundsätzlich mit diskreten Alphabeten arbeiten. Hierbei wird die Übertragung von mathematischem und metamathematischem Wissen zwischen China und Europa - zwischen einem per definitionem unvollständigen und einem vollständigen Zeichensystem also - im 17. Jahrhundert als Ausgangspunkt genommen und der massive Einfluss, den diese Übertragung auf die Entwicklung des Wissenssystems G.W. Leibnizens hatte, genau dargelegt. Ausgehend davon soll die chinesische Spur im westlichen Denken und Operieren mit Symbolen im 18., 19. und 20. Jahrhundert weiter verfolgt und an signifikanten Stellen freigelegt werden. Ziel ist es, die Mathematik der (operativen) Unvollständigkeit und Unentscheidbarkeit, wie sie mit Gödel und Turing im frühen 20. Jahrhundert die klassische Mathematik beendet und sie in die Immanenz der Maschine überträgt, auf Verfahren zurückzuführen, die Leibniz aufgrund seiner Befassung mit dem Chinesischen entwickelt hatte.