Interview mit Friedrich Kittler: Es muss ja auch weicher werden.

Dieses beinahe „historische“ Interview mit dem Berliner Kulturtheoretiker Friedrich führte Bernhard Rieder im Februar 2000 – veröffentlicht wurde der Text damals auf medianexus. Da die medianexus-Seiten in der ÖNB nur bis 1998 erfasst sind, gibt’s das Gespräch online nirgends mehr.

Deshalb an dieser Stelle anlässlich des gestrigen Vortrags von Friedrich Kittler in Wien ein Re-Run des seinerzeits wohl meistgelesenen medianexus Interviews – an Aktualität hat das Interview wenig eingebüßt. Viel Vergnügen bei der Reise in die „Frühzeit“ des Netzes.

Es muss ja auch weicher werden.

Der Berliner Professor Friedrich Kittler der wohl einflussreichste deutsche Medientheoretiker. Vor allem die in den achtziger Jahren enstandenen Schriften wurden an Einfluss und und kontoversiellem Potential bis heute nicht erreicht. Media.nexus sprach mit ihm über Prozessoren, Wissenschaft als Open Source Prozess und die letzten Möglichkeiten der Technikanalyse.

Bernhard Rieder: Ich möchte gleich direkt in das Gespräch einsteigen und auf einen Punkt zu sprechen kommen, der mich besonders interessiert. Moores Law ist ein bekanntes Paradigma und erfreut sich ununterbrochener Gültigkeit. Dennoch weißen aktuelle Indizien darauf hin, dass die magische Grenze von drei Gigahertz tatsächlich eine solche sein könnte.
Eine zweite Tendenz die sich beobachten lässt, ist die Tatsache, dass selbst die aktuellste Consumersoftware im Office-Bereich noch auf den Prozessoren der vorletzten und vorvorletzten Generation zufriedenstellend läuft. Sind wir am Ende einer Entwicklung die 25 Jahre durch ihre Konstanz brillierte?

Friedrich Kittler:
Der letzte Punkt scheint doch zumindest einfach zu sein; Benutzersoftware so wie sie – von Helmholz nachgewiesen – auf den genuin langsamen Verfahren des a) Sprechens, b) Schreibens und c) optisch-akustischen Nervengerüsts basieren, noch weiter zu beschleunigen, das macht keinen Sinn. Die Anschlagsgeschwindigkeit von Menschen, wird sich nicht mehr steigern, heutzutage tippt ja auch niemand mehr richtig schnell, und deshalb brauchen die wordprozessoren die neuen Generationen von Alpha- oder Intelchips überhaupt nicht mehr. Das einzige was man heute machen muss – das wissen wir ja beide, ist es, multitasking und multiuser Anwendungen zu erweitern anstatt ständig auf die Eingabe des Users zu warten. Das war ja bei dos so, dos ist ja sofort in eine Entlosschleife hineingelaufen, wenn es auf den nächsten Buchstaben den jemand in einem Liebesbrief schrieb, warten musste; das waren dann 99% Prozessorleistung verbraten für nichts, eben das warten auf diesen nächsten Buchstaben.
Also langsam, ganz langsam dämmert ja wohl das Ende des Zeitalters dieses stand-alone Geräts und man könnte sich schon verstellen, das die Power der jetzigen Prozessoren so ausgenutzten werden wird, dass diese im Netz gleichzeitig noch Aufgaben erledigen, währenddessen dem Benutzer das nächste Wort nicht einfällt oder die nächste Operation im Photoshop oder was auch immer jetzt so an langsamen mausgetriebenen Algorithmen oder tastaturgetriebenen Algorithmen stattfindet. Aber es wäre eine gute Unterscheidungslinie generell, was symbolisches Prozessieren ist, also was an menschliche Geschwindigkeiten und Fähigkeiten ankoppelt auf der einen Seite, und auf der anderen Seite dasjenige Rechnen – native processing war Intels schöner Ausdruck dafür – das sich letztlich der Natur und der Kontingenz zuwendet, wo die Rechenpower bei Gott noch nicht reicht.

?: Der Idee, dass der User ja eigentlich gar nicht mehr Prozessorpower braucht, steht ja die Vermarktungsstrategie der großen Prozessorschmieden, die natürlich auf frenetischer Suche nach neuen Anwendungsmöglichkeiten sind. Glauben Sie, dass sich diese Strategie ewig weiterverfolgen lässt; was brauchen wir noch, was es noch nicht wirklich gibt. Außer schönen Spielen.

!: Ja mp3-Encoder in Hardware und zwar nicht in dezidierter Hardware, in Sondersignalprozessoren oder so, sondern solche die in Echtzeit lauffähig sind, auf einem normalen Chip, während daneben noch soundprocessing läuft, da gibt es sicher noch ein paar Sachen, wo es zehn Jahre weitergehen wird mit dem Druck auf dem Feld „Wald und Wiesen“-Prozessor, aber dann wird es vielleicht geschafft sein. Und falls dazukäme, dass wirklich Sicherheit in der Netzkommunikation eintritt, also ordentliche, lange Schlüssel stattfinden, 128bit Schlüssel oder so etwas, dann ist natürlich das dekodieren des täglich oder stündlich, sekündlich anfallenden Netzverkehrs ja auch eine Aufgabe an denen Prozessoren schwitzen. Intel rühmt sich mit ihrer neuen SIMD (single instruction – multiple data) Struktur des P3, die Entschlüsselung ziemlich beschleunigt zu haben.
Da gibt es Räume. Die Computergraphik – und das wissen Sie ja sicherlich besser als ich – in diesem Bereich muss man unterscheiden zwischen Raycasting, das hauptsächlich bei Spielen vorkommt und was ja eine ziemlich hahnebüchene Art ist dreidimensionale Räume zu simulieren, was mit 25 Frames pro Sekunde also in Echtzeit problemlos zu machen ist auf der einen Seite, und dem Raytracing und solchen Sachen, die wirklich anspruchsvoll sind. Ich meine ich habe mir gerade einen doppel P3 geleistet, also zwei 500 Mhz Prozessoren und daher – unter Linux zumindest 200% Systemauslastung und bekomme damit in meinem raytracer ein Bild runter auf neun Sekunden das ist eben ein neuntel Frame per second – ist also noch nicht benutzbar. Ich denke da ist noch eine ganz schöne Entwicklungsstufe zu schaffen. Stellen sie sich einmal vor ein neuntel Frame pro Sekunde soll 25 werden, das ist neun mal 25, das ist 225mal Verbesserung, da kann Moores Law noch ’ne Weile dran schwitzen.

?: Sie haben immer wieder in ihren Schriften darauf hingewiesen, dass Hardwarestrukturen – Prozessoren, Hardwarearchitekturen – die Dimension der Sinnproduktion stark beeinflussen, um nicht zu sagen determinieren. Wie spielt da die Geschwindigkeit rein?

!: Ich möchte es ja auch noch genauer wissen, wie weit es wirklich makrosoziale Veränderungen sind, die sich auf den Chips abbilden, da bin ich immer noch skeptisch, aber ich möchte gerne jemanden haben, der über diese Frage promoviert. In einer mittleren Lösungsebene, wenn man zum Beispiel das Organigramm der Intel Corporation hernehmen würde und es mit den von Intel gebauten Chips vergleichen, da kann ich mir eine größere oder schnellere Trefferrate der Korrelation vorstellen weil die Gesellschaft – ich glaube nicht dass es die gibt, im Unterschied zu Luhmann, der aber eigentlich auch nicht mehr glaubte, dass es die gibt.
Und dass es da politische Kampflinien gibt, das zeigt ja wohl diese traurige Geschichte mit dem native single-processing , das war Intels wirklich gute Idee, die Multiplikationen, an denen eigentlich alles hängt – Multiplikation und Addition sind die grundlegenden Funktionen des Integrierens wenn man das numerisch aufdröselt – das sollte eben substanziell beschleunigt werden, die alten Intel-Prozessoren brauchten für eine Operation 32×32 bit geschlagene 42 Takte, und das sollte in eine DSP Architektur umgewandelt werden, also in Echtzeit, vielleicht 2 Takte, so wie man das gerne hätte, und dann gab’s dieses berühmte Gespräch zwischen Andy Grove und Bill Gates in Santa Clara im Firmenzentrum von Intel und dort hat Gates gesagt: „Wenn ihr das reintut, dann lassen wir euch sitzen und trennen unsere berühmte Wintel-Allianz.“. Und dann hat Intel fast klein beigegeben, aber nicht ganz, denn die neuen Multiplikationsbefehle auf meinem P3 – ich hab sie nachgemessen – sind auf vier, fünf Takte runter, aber das ist offensichtlich das einzige was von diesem Konzept übriggeblieben ist, dass die Multiplikation jetzt wirklich vernünftig schnell ist, aber das ist schon eine Entscheidung, baut man jetzt weiter in eine string-verarbeitende RISC-Maschine oder versucht man die normale, traditionelle, von der Textverarbeitung her kommende CPU langsam in Richtung eines allgemeinen floatingpoint- und signalverarbeitenden Systems aufzubohren. Ich denke in dieser zweiten Richtung ist noch sehr viel Spielraum, die erste Richtung hat sich irgendwie ausgetobt. Man sollte ja vielleicht hinzufügen, dass dieses mythische, von keinem Mensch je in der Hand gehabte Urphänomen des kleinen CPU-Chips, nämlich der 4004 von Intel für diese japanische Firma, das war ein reines Textverarbeitungssystem. Der erste Mikroprozessor als solcher ist gebaut worden im Auftrag dieser Büromaschinenfirma, ich glaube es war Casio, und es sollte eben einfach eine kleine Textverarbeitung tragen und die ganzen dramatischen Blinddärme die ja in der Intel-Befehlsstruktur drinstecken, die kommen aus dieser historischen Altlastenzeit und es macht einem schon Grausen dass der Merced (Intel Itanium), so wie er geplant ist, einerseits eine fantastische 64-bit Architektur Ende des Jahres uns anbieten wird können, und dass auf der anderen Seite der ganze Blinddarmoverhead der alten Prozessorgeschichte per switch weitergeschleppt wird. Mit anderen Worten: es wird doppelt so viel Silizium verbraten als eigentlich sinnvoll wäre. Und das der Merced nun mit 2 ½ Jahren Verspätung – nach der Roadmap – auf den Markt kommt, dass ist offensichtlich eine Folge des Versuchs diese obsolete Vergangenheit weiter am Leben zu erhalten.

?: Stichwort: asymmetrische Prozessoren. Mir drängt sich hier der Gedanke auf, dass das Open-Source Modell über diesen Ansatz auch in den Bereich der Hardware getragen werden könnte.

!: Das ist ja nicht nur möglich, es wird ja schon gemacht. Hewlett Packard hat einfach einen Ocean of Gates angeboten, also einfach frei umprogrammierbare Massentransistoren viel mehr als irgendwann gebraucht, und dann wurde ein Soft- Hardwareprogramm gestartet, dass diese Transistoren auf der Hardware selbst umzukonfigurieren erlaubt – also es wird nicht aus einem Transistor ein Nicht-Transistor, aber die miniaturesken Verbindungskabel können anders gelegt werden – und zum ersten mal hat sich in einer Art von darwinistischem Evolutionsmodell nicht bloß Software fortentwickelt, wie in Tiera oder solchen Programmen, sondern wirklich Hardware hat sich selbst konfiguriert, und das Ergebnis war wirklich besser als alle Entwürfe die die Ingenieure in vollem Bewusstsein gemacht hatten. Diese Maschine hatte sich besser konfiguriert als je ein Einwicklerbüro das hätte austüfteln können. Und offensichtlich hat diese Hardware die sich selbst programmiert – so wie das bei Linux ja ungefähr auch gesagt werden könnte – die hat offenbar Schwächen des Siliziums in Anführungszeichen ausgenutzt zu Stärken. Also sie hat irgendwie schnelle Stellen aufgespürt auf dem Chip und langsamere Stellen, und feiner konfigurierbare und etwas gröber konfigurierbare, und hat diese ganzen Anpassungen – weiß der Teufel wie – angeblich automatische gemacht.

?: Wenn man davon ausgeht, dass Hardware determiniert, könnten Open Source Prozesse in der Entwicklung von Hardware zu entkommen. Könnte man die Determination dann zumindest selbst bestimmen?

!: Das wäre zu Wünschen. Das hängt allerdings davon ab, wie deterministisch die Sache ist und wo der Determinismus liegt. Positiv spricht für ihre Frage, dass nicht nur auf der Linux World sondern auch auf der Intel Entwicklerkonferenz Linux – dank 200 Millionen Intel-Support – sofort auf dem Merced Prototyp losgelegt hat während sich Windows NT mit „Evaluierungsdatum überschritten“ oder so etwas meldete und maßlose Startprobleme hatte. Aber was ich sagen wollte – ganz im Ernst, weil mich diese Intel-Entwürfe schon interessieren – dieses explizite Programmieren, wo die Parallelität nicht mehr vom Prozessor und dem Maschinencode vorgegeben wird sondern von dem C-Compiler, der den Maschinencode generiert, das scheint mir eigentlich ein ziemlich harter Determinismus zu sein, der so ein bisschen unsere Träume von „Open“ und „Frei“ und „Rumspielen“ ziemlich heikel macht. Handoptimierten Assembler gibt es dann nicht mehr, da der Compiler selber gezwungen ist zu optimieren, anderenfalls er absoluten Schwachsinn erzeugt an Code. Es ist eine rasante Konzeption, weil Sie sozusagen nicht das Ortogonale an den alten Intel – Prozessoren total abschafft, das alles plättet, aber alle Verantwortung dem Compiler zuschiebt, der dann gut sein muss. Wahrscheinlich wird keine große Konkurrenz mehr zwischen den Compilern mehr geben, die – sei es proprietär sei es Open Source – entwickelt werden können, weil der Compiler das gesamte „programmers manual“ beherrschen muss und das ist ziemlich unzweideutig, wahrscheinlich wird es ausfallen. Insofern ist der Compiler eine Maschine von einer Eindimensionalität, die man vorher bei Compilern nicht hatte – das war sozusagen die schöpferische Maschine, die schöpferische frei Stelle, auch für proprietäre Compiler – Microsoft hat ja nicht nur schlechte Compiler geschrieben – sondern auch verdammt gute. Und das dürfe irgendwo in dieser Geschichte erst einmal verloren gehen. Jetzt kenne ich mich noch viel zu wenig in der Alpha-Architektur aus – unser Alpha ist erst acht Wochen alt, und ich kann nicht viel sagen, wie da die Konkurrenz aussieht.

?: Wizards of OS. Sie haben im Rahmen dieser Veranstaltung versucht, Open Source als Modell der Herstellung von Wissenschaft zu platzieren. Können Sie kurz resümieren, wo da der Punkt ist?

!: Zunächst einmal war ich paranoisch wie immer, und ich besinne mich immer mehr darauf zurück, dass ich einer Uni angehöre und die Unis viel ehrenwürdiger und älter sind als ein Nationalstaat. Und deshalb habe ich eine historische Parabel erzählt: „Es war einmal die mittelalterliche Universität…“ die bestand – was kein Mensch mehr weiß – erstens aus: Studenten und Dozenten das ist ja klar, das interessiert uns nicht weil das ja Soft- und Wetware ist, mich hat nur die Hardware der mittelalterlichen Uni interessiert und die bestand bekanntlich – oder unbekanntlich – aus einer Bibliothek, einer Schreibstube wo die Bücher selbst hergestellt wurden manuelle und drittens einer Universitätspost um alle Studenten mit ihren Heimatländern zu vernetzen. Und dann habe ich die traurige Geschichte erzählt, wie Gutenberg dem Scriptorium, das Buchherstellen geklaut hat und wie die Nationalstaaten die Post geschnappt haben und die Metzgerposten und die Uniposten verboten haben, und nur noch das Postregal des Staats zuließen. die Bibliothek ist immerhin einigermaßen geblieben – aber natürlich gibt es auch Nationalbibliotheken. Und dann habe ich die zweite Geschichte erzählt, dass ist die Geschichte, dass die Computerei aus einer Dissertation entstanden ist, von Alan Turing, und einem Professor der allerdings zum Pentagon übergelaufen ist, John von Neumann und überhaupt und wie sich dann an den Rändern von Stanford University die ersten privaten Schmieden angesiedelt haben, und wie heutzutage Microsoft einfach aus dem Engeneering- und Sciencedepartement von Stanford die Leute mit einundzwanzig abschleppt, ausquetscht wie Orangen, und mit dreiundzwanzig wieder wegschmeißt.
Ich habe halt so eine Warnung hingestellt, also entweder die Uni lernt, dass sie jetzt zum zweiten Mal proprietarisiert worden ist, ein Mal durch Gutenberg und den Staat und jetzt durch die Software und das Pentagon, und sie muss sich halt was besseres einfallen lassen und eine Art von Metametametawissen darüberlegen, wenn sie dieses Wissen nicht mehr hat. Oder sie wehrt sich und besteht darauf, dass einige Essentials des Wissens Open Source bleiben. Ich würde denken, das wäre der Untergang – wirklich das wäre der Untergang des Abendlandes wenn man jetzt die Analysis, den Calculus dx nach dy, wenn man das patentieren dürfte.

?: Steht der Vortrag im Zusammenhang mit dem neuen Buch – Kulturgeschichte der Kulturwissenschaften? Wird das wieder eine Geschichte einer Wissenschaft über ihre Hardware, oder worum geht’s wirklich?

!: Das Buch hat damit nicht so viel zu tun. Es war eher ein Versuch, mich in mein neues Fach einzuarbeiten und meine philosophischen Interessen und Vergangenheiten für die Kulturwissenschaft fruchtbar zu machen. Da ging es mehr um die – in meinen Augen schreckliche – Trennung zwischen Natur und Kultur, oder historischen Wissenschaften, so wie Vicos sich von Decartes Natur abgetrennt hat um die Geschichte zu etablieren und wie das heute hoffentlich wieder zusammenläuft, aber ich hab’s nicht geschafft, das Buch oder die Vorlesung bis heute zu führen, sondern die endet mit Heidegger – also 45 – und einem Lob auf den Rotwein und die Götter.
Aber ich schreib‘ irgendwann diesen zweiten Teil, so von Levi-Strauss bis zur Texas-Schule von heute oder halte es wenigstens als Vorlesung. Viel mehr mit dem was wir jetzt diskutiert haben, mit den zwei großen Akten des Geldmachens aus Wissenssystemen oder Wissenshardware, zusammenhängt ist etwas, was wir in Berlin momentan alle planen, so eine Geschichte der Mathematik, sofern sie kulturell bestimmende Macht war. Und was ich persönlich ganz gerne tun würde, wäre so ein großer Brückenschlag, einerseits zwischen Linearperspektive – wie in der Renaissance erfunden – hin zur Computergraphik und Computeranimation von heute, die ja auch immer ganz brav perspektivisch ist, wenn sie nicht gerade für die Architekten arbeitet. Das zum einen; und dann mein ganz privates Interesse, wie eben die temperierte Stimmung, nämlich die 12 gleichen Töne die alle durch 12te Wurzel aus 2 bestimmt werden – ganz im Unterschied zur griechischen Tonleiter – wie die erst mal in Moogs Synthesizer eingezogen sind. Ich habe mit Bob Moog jetzt gesprochen in Linz und wir haben uns über diesen Punkt ziemlich gut verstanden – ein Volt, eine Oktave in 12 kleine gleiche Widerstände alias Schritte eingeteilt, und wie dieses Prinzip dann jetzt – samt all den draufgelegten Algorithmen – in die Computermusik reingewandert ist, inklusive physical modelling von musikalischen Sounds, was ja letztlich drauf hinausläuft, dass man in Echtzeit Differenzialgleichungen löst im Computer und dann die Lösung dieser Differenzialgleichung als klingende Musik gleichzeitig ausgibt. Und das wäre genau der Punk wo wir wieder am Anfang unseres Gesprächs wären, wo wirklich dann affige Rechenleistung erforderlich ist, die heute noch nicht so ganz da ist.

?: Das heißt sozusagen, die Arbeit die Sie vor allem in den achtziger Jahren geleistet haben, der Versuch, die konkrete Hardware zu reflektieren und zu schauen wo das Determinationspotential ist, wird jetzt eine weitere. Das heißt, das Material, das in ihren frühern Arbeiten die konkrete Hardware war, wird weicher, es kommen die Algorithmen dazu, andere Fragen, und auch die konkrete Anwendung.

!: Es muss auch weicher werden. Weder Sie noch ich sind imstande uns über die Position von sechs oder zehn Millionen Transistoren auf diesen Chips noch irgendwie sinnvoll Rechenschaft zu kriegen. Was die Industrie rausrückt, diese wunderbaren Photos mit den vier-fünf Farben, für: hier ist die Floatingpoint-Unit, das ist der Cache No.1, da ist Cache No.2, da sind die fünf Reste von Integer-Units die wir heute noch übriggehalten haben, superskalaar usw., hier ist reordering, das kann man ja kaum mehr interpretieren. Ich weiß nicht ob das ein Ingenieur das noch interpretieren kann, ich weiß nicht ob ein Mensch, wenn er das Gesamtbild als gezeichnetes vor sich sähe, noch überhaupt sich zurechtfände. Auf jeden Fall wir, relativ von den Daten Abgeschlossene, wissen zu wenig, vielleicht mach‘ ich auch den Fehler, nicht immer auf die von Michael Slater veranstaltete Microprocessor Developement Conference in San Francisco zu fahren, da müsste ich eigentlich jedes Jahr und die Kongressakten lesen, dann könnte man weiter an der Hardware arbeiten. Ich denke aber schon, sie haben recht, die Hardware von vor zehn Jahren oder fünfzehn Jahren als man anfing drüber zu schreiben, war wirklich noch im Kopf einigermaßen rekonstruierbar, was so ein kleiner Prozessor war, aber ich bin froh, einer Generation anzugehören, die diese rasante Geschichte „from the scratch“ – vom Anfang an – mitgemacht hat, sodass man auch jetzt in diesen Riesenarchitekturen die Prinzipien der früheren kleineren Lösungen wiedererkennen kann, und sich einigermaßen zurechtfinden kann.
Überhaupt noch die Frage nach Teilfunktionen der Hardware aufrechterhalten ist schwer. Viele Leute vergessen ja ganz, dass so ein Chip aus unterschiedlichen Funktionseinheiten besteht und programmieren dann auch schlecht. Unsereins, wir wissen, dass wir eine CPU, eine Floating Point Unit und seine SIMD-Unit parallel laufen lassen können. Und ich jetzt in meiner Glückssituation, stellen Sie sich vor, also: 2 Prozessoren, eine normale 2D/3D Graphikengine, normale Soundengine und eben noch diesen wunderschönen alten DSP aus meinen Kindertagen, das sind fünf aktive Maschinen in einem Desktopgehäuse, und ich schaffe es die fünf gleichzeitig laufen zu lassen. Da muss man aber wissen, das Untereinheiten überhaupt gibt und deren Parallelismus ausnützen usw. Aber das wäre natürlich vor zehn Jahren unvorstellbar gewesen, dass man fünf oder mehr solcher Einheiten überhaupt hat. Das wäre auch ein Punkt, wo sozusagen eine Öffnung stattfindet hin in – nicht gerade in Open Source – aber in eine Art von Polyarchie anstelle einer Monarchie dieses einen Prozessors.

?: Und wo würden sie die Konsequenz sehen. Wie gesagt, die Black Box Computer schießt sich immer weiter, es gibt immer weniger Leute die über dieses Ding abstrakt zu denken vermögen, welche Konsequenz hat das für die Kulturwissenschaften – oder das, was man heute Kulturwissenschaften nennt? Wie können wir die Determinationskraft, die signifikante Kraft, die in diesem Gerät dann trotzdem noch drinsteckt, wie können wir der noch nachspüren.

!: Das Verfahren, das ich immer benutzt habe, und was die Jüngeren, die in meinen Stapfen wandeln, oder über diese Stapfen längst hinausgewandelt sind, eingeschlagen haben, war immer ein bisschen das der Dramatisierung dieser Dinge. Einfach um es schlagend zu machen. Dramatisierung heißt z.B. den Teufel der militärischen Ursprünge oder Zukünfte an die Wand zu malen, und es gibt teilweise also erstaunliche Ergebnisse.
Um beim Raytracing oder Radiosity – diesem beliebten Verfahren der Graphik – zu bleiben, ich hatte das auch als bare Münze genommen, wenn die computergraphics-community, die es ja gibt, erzählt, sie hätten den raytracing-algorithmus einfach entwickelt um Bilder wiederzugeben, – nein denkste, ein junger Mann bei mir hat herausgefunden, in den ersten zehn Jahren des Begriffs „raytracing“ gibt’s den nur in der militärischen Radarliteratur und der ist dann wie so eine Begriffsübernahme in die Graphik hineinspaziert aber war zunächst einmal nur für die Radarwellen gedacht. Und das sind schon Sachen, wo man immer noch gut dramatisieren kann.
Das selbe gilt für den Begriff der rauen Oberfläche oder für den Begriff der Textur. Also das was heute jeden 3D-Chip in seiner Leistungsfähigkeit definiert. Woher kommen eigentlich die Texturen? Siehe an, sie kommen aus dem Problem, dass der Atlantik nicht das allerruhigste Meer der Welt ist und wenn dann so ein blödes deutsches U-Boot sein blödes deutsches Periskop dann kurz vor der amerikanischen Küste mal kurz hochfahren lässt, und die See ist einigermaßen rau und die Sonne steht noch ganz blöd im Abendrotwinkel, dann entseht eine derartige Textur, dass das Periskop von dem U-Boot nicht mehr von seinem Hintergrundrauschen trennbar war. Und daraufhin haben sie Theorien entwickelt, was raue Oberflächen sind, also Texturen, und das fand ich alles sehr dramatisch, weil’s auch tief in den Algorithmus hineinreicht, als den Algorithmus zur Erfassung nicht nur von algorithmischen Strukturen sondern eben von verrauschten und komplexen Strukturen, wie die Welt sie nun leider mal hat. Und das alles mal aufzurollen, und so eine Archäologie der Computer bis heute zu bauen, statt dieser Selbstlob-Hudelei Historiographie, das wäre im Sinne Foucaults immer glaub ich noch provokant. Ich denke, politische Unterstützung für Open Source und Open Software muss einfach sein, das kann man nicht durch akademische oder archäologische Teilaktivitäten ersetzen.

?: Wenn ich sie jetzt richtig verstanden habe, heißt das im Endeffekt für die Kulturwissenschaften, dass sie einen Prozess des „reverse engeneerings“ durchführen müssen, also wir schauen uns zuerst die Effekte an, und kommen erst dann zur Hardware zurück, die nicht mehr aus sich allein verstehbar ist.

!: Sicherlich. Also wenn man so eine Geschichte wie die Oberfläche des Meeres vs. U-Boot Periskop sich anschaut, dann fällt man eben zurück auf Johann Heinrich Lambert aus der Berliner Akademie der Wissenschaften, der zu ersten Mal eine Theorie von leuchtenden Oberflächen überhaupt aufgestellt hat. Und diese Theorie erzeugt 1760 den Begriff selber den Begriff des Phänomens, weil wie das Ding an sich selbst leuchtet, ist etwas anderes wie das Ding in unseren Augen als leuchtendes Feld. Der Sehwinkel am Rande, an den Rundungen des Mondes, erzeugt halt dunklere Lichter – im Falle des Mondes stimmt es nicht, nehmen wir einen Apfel, dann stimmt es – der Apfel hat einen Glanzfleck in der Mitte und da wo das Sehfeld im Winkel von 90 Grad auffällt wird er halt dunkler. Und das entwickelt Lambert als eine schöne mathematische Theorie und prägt dafür den Begriff des Phänomens und der Phänomenologie sogar und Hegel, der junge Hegel liest das – aus zweiter Hand vielleicht oder aus dritter – nimmt das Wort und schreibt die Phänomenologie des Geistes und meint natürlich nicht mehr diesen optischen Schein, den Lambert so schön beschrieben hat und der in der Computergraphik wieder hochkommt.
Also die Kulturwissenschaft ist auch in ihren Sachverhalten betroffen, und zwar frontalst betroffen; bis einschließlich der großen Philosophie soweit sie sich Rechenschaft über Schein und Sein, beim Sehen, beim Hören und beim Denken ablegen wollte, gibt es diesen anderen Strang, der normalerweise nicht wahrgenommen wird, der dann direkt von Lambert in die Implementierung hineinführt und in jeden heutigen Graphikchip.

?: Das heißt, dass Wissenschaftstheorie und Wissenschaftsgeschichte – wenn man das Gesagte extrapoliert – Gesamtwissenschaftsgeschichte und Gesamtwissenschaftstheorie werden müssten.

!: Das sollte man als Abschluss so gesagt haben, ja.

0 comments