Video-Transkript: Rosa Menkman
| Website: | Open.UP |
| Kurs: | Glitching the (Teacher's) Body - Asynchroner Selbstlernkurs |
| Buch: | Video-Transkript: Rosa Menkman |
| Gedruckt von: | Guest user ( , Gast) |
| Datum: | Mittwoch, 1. April 2026, 07:08 |
Beschreibung
Nutzen Sie bei der Bearbeitung der Videos die entsprechenden Videotranskripte (Das Interview wurde in englischer Sprache durchgeführt!)
Inhaltsverzeichnis
- 1. Ihre Arbeitspraxis
- 2. Körper in ihrer künstlerischen Arbeit
- 3. Ihr Verständnis von Stören
- 4. Der Einfluss des Verhältnisses von Körper und digitaler Kultur auf ihren Schaffensprozess
- 5. Wie beeinflusst Postdigitalität ihren Denk- und Schaffensprozess?
- 6. Rosa Menkmans Sicht auf das Zusammenspiel von Digitalität und Kunstunterricht
- 7. Bildverzeichnis
1. Ihre Arbeitspraxis
DE
Mein Name ist Rosa Menkman. Ich bin eine niederländische Kunstforscherin und habe etwa 2008-2009 mit dem Glitch begonnen zu arbeiten. Glitches im Sinne einer Unterbrechung eines erwarteten Flusses innerhalb der Technologie. Das kam eigentlich aus der 8-Bit-Noise-Szene, wo ich anfing, Bilder zu machen und darüber zu schreiben. Aber ich habe festgestellt, dass sich die Glitch-Kunst weiterentwickelt hat und in so viele verschiedene Kategorien und Genres sowie Definitions- und Verstehensweisen aufgeteilt wurde, dass ich neu formulieren musste, was diese Kunstform für mich eigentlich bedeutet. Und das bedeutete auch, dass ich einen Schritt zurücktreten musste. So formulierte ich dieses Feld für mich um, was ich nun als Resolution Studies definiere oder beschreibe.
Was mich wirklich interessiert, ist nicht nur ein Bruch mit dem erwarteten Fluss, sondern vielmehr der Kompromiss innerhalb der zeitgenössischen Technologien. Und ich versuche, diese Kompromisse in meiner heutigen Praxis zu finden. Ich habe sehr oft Bilder gemacht, indem ich den Code gebrochen habe, auf dem das Bild aufgebaut ist. Ich habe also eine Art Störung in die Daten eingebracht, aus denen die Datei erstellt wurde. Und dann würde ich versuchen, sie trotzdem zu rendern. Und dann würde ich nicht nur sehen, wie die Maschine sie interpretiert, sondern auch Teile der Protokolle der Kodierungs- und Dekodierungsmechanismen sichtbar machen. Da die Daten nicht mehr dem ursprünglichen Datensatz folgten, konnte man sehen, wie zufällige Daten durch diese Dekodierungsmechanismen organisiert wurden. Das kann man auch heute noch machen, aber es wird immer schwieriger.
Aber was ich heute interessant finde, ist, dass es mir Verwendungsmöglichkeiten aufzeigt, die nicht mehr standardisiert sind, die vielleicht nicht mehr verwendbar sind, die vielleicht aus dem Werkzeugkasten unserer heutigen Computer herausgefallen sind. Was Bilder für mich heute sind, sind vielleicht Illustrationen oder Werkzeuge, je nachdem, was ich tue und auf welcher Stufe des Prozesses ich mich befinde, die die Unmöglichkeit unserer Rechenprozesse beschreiben und illustrieren.
EN
My name is Rosa Menkman. I am a Dutch artistic researcher and I started maybe around 2008-2009 with the glitch. Glitches as in a break from an expected flow within technology. And that really came from maybe the noise 8-bit scene where I started to do visuals and then also started to write about that. But I found that glitch art specifically has developed and also kind of broken into so many different categories and genres and ways of definitions, ways of understanding, that I had to reformulate what it means to me actually. And that also meant that I had to take a step back. And I did that in the form of what I define or describe as Resolution Studies.
What I'm really interested in is not just a break from the expected flow, but more so the compromise within contemporary technologies. And I try to find those compromises within my practice today. I was making images very often by breaking the code that the image is built up from. So what I would do is, like, I would put a disturbance of sorts in the data that the file was made from. And then I would try to render them anyway. And then I would see not just how the machine interpreted it, but also kind of parts of the protocols of the encoding and decoding mechanisms. Because the data was no longer following the original data, you would see how random data would be organized by those decoding mechanisms. Now you can do that even today, but it gets harder and harder.
But what I find is interesting today is that it kind of shows me ways of use that are no longer standardized, maybe no longer usable, that might have fallen outside of the toolbox of our contemporary computers. What images for me today are, they're illustrations maybe, or tools, depending on what I'm doing, at what step of the process I am, that kind of describe and illustrate impossibility within our computational processes.
2. Körper in ihrer künstlerischen Arbeit
DE
Man sieht also immer mehr, dass wir als Computernutzer nur Zugang zur obersten Schicht unserer Rechenprozesse haben. Ich denke, in den traditionellen Formen der Glitch-Kunst war es genau das, was wir versucht haben, rückgängig zu machen oder wovor wir vielleicht gewarnt haben, nämlich dass dies das Endergebnis von Computerentwicklungen ist. In diesem Prozess des bloßen Zugriffs oder der Entwicklung, die uns nur Zugang zum endgültigen Bild verschafft, verlieren wir eine Menge Verständnis und Einsichten darüber, was es bedeutet, Bilddaten, oder eigentlich jede Art von Daten, zu verarbeiten. Im Kern bestehen Daten, wie wir uns vielleicht noch erinnern, vielleicht aus Nullen und Einsen, vielleicht aus einigen anderen Arten von Transformationen, aber es sind einfach Werte, die noch nicht interpretiert werden bzw. wurden. Wenn ich also an die Bildverarbeitungspipeline denke, würde ich gerne ganz am Anfang beginnen.
Nehmen wir zum Beispiel das Licht, das bereits auf unsere Augen trifft. Und dieses Licht kann auch Licht sein, das unser Auge nicht sieht, richtig? Denn alles, was uns umgibt, all die Photonen um uns herum, ist nur ein sehr kleiner Teil dieser Photonen, den wir tatsächlich sehen können, und der Rest ist für uns unsichtbar, kann aber für andere Arten von Technologien sichtbar sein. Bluetooth, FM- oder AM-Radio, Wi-Fi-Signale - sie alle existieren innerhalb dieser Datenebene, die als unsichtbares Licht um uns herum schwebt. Ein sehr grundlegender Ausgangspunkt ist für mich auch die Betrachtung des Auges als eine Art sehr begrenzte Form einer Antenne. Und wenn wir unsere Augen gegen etwas völlig anderes austauschen könnten, wie bspw. eine Antenne, was würden wir dann sehen? Stellen Sie sich vor, Sie hätten eine Wi-Fi-Antenne im Auge, dann könnten Sie durch die Wände hindurchsehen und die Daten sehen, die ein Router empfangen kann. Wir könnten sehen, woher die Daten kommen, wie sie in unseren Computer gelangen und welche anderen Arten von Strahlung sie vielleicht stören. Auf diese Weise würden wir die Infrastruktur um uns herum verstehen. Und das ist nur ein bestimmter Maßstab, aber wir können auch andere Maßstäbe anlegen und alle Arten von Dateninfrastrukturen um uns herum sehen.
Ich würde also gerne mit diesem Teil des Körpers beginnen und darüber spekulieren. Der Körper ist immer ein Teil dieser sehr großen Infrastruktur, die überall um uns herum existiert: sichtbar - unsichtbar, zugänglich - unzugänglich, in Besitz und Eigentum oder tatsächlich noch teilbar (?), mit der wir spielen können. Und wenn wir diese Orte aufdecken, indem wir uns eine Wi-Fi-Antenne ins Auge stecken, dann würden wir tatsächlich lernen, durch verschiedene Formen des Umfangs und der Reichweite zu sehen. Und das würde uns wirklich eine andere Art und Weise geben, die gesamte Umgebung um uns herum zu betrachten.
Wenn Sie also fragen: Wie ist der Körper in diesem Zusammenhang einzuordnen? Für mich fängt es bei dem sehr rudimentären Teil an, der nur das sehende Auge ist, das blind ist und dessen Politik irgendwie verdeckt ist. Ich behaupte nicht, dass wir alles sehen müssen. Ich versuche, dafür zu plädieren, zu verstehen, was Sehen bedeutet. Sehen bedeutet nicht nur, Dinge sichtbar zu machen. Es bedeutet auch, Dinge unsichtbar zu machen. Es bedeutet nicht nur, wahrnehmen zu können, sondern auch, blind für andere Dinge zu sein. Und so haben wir auch hier wieder diese Dynamik dessen, was komprimiert wird, und Kompromisse sind in diesem Sinne immer notwendig. Wir brauchen nicht alles, aber wir verlieren eine Fähigkeit, wenn wir nicht verstehen, wo Kompromisse bestehen. Wir verlieren die Fähigkeit, zu durchdenken, und mit dem Kompromiss verlieren wir die Macht, vielleicht manchmal aufzubrechen und die politische Dynamik der Sichtbarkeit zu verstehen, sichtbar zu machen, was herausgefiltert wird, was hineingefiltert wird, was verbessert wird. Und ich denke, weil unsere Kultur so sehr auf Sichtbarkeit basiert, müssen wir die Dynamik der Unsichtbarkeit viel besser verstehen.
Ich glaube, wir sind nur dazu erzogen worden, zu sehen und zu lesen, aber wir sind nicht dazu erzogen worden, zu wissen, was unsichtbar ist. Und ich glaube, dass es für Lehrende wirklich wichtig ist, zu verstehen, dass es diesen ganzen Bereich gibt, der uns viel mehr Einfluss und viel mehr Werkzeuge geben würde, um nicht nur zu verstehen, wie wir sehen, was wir sehen, sondern auch, was unsichtbar ist. Und ich glaube, dass Politik, Verkörperung, Wirtschaft, sie alle an dieser Schwelle zum Tragen kommen. Aber der Zugang zu dieser Schwelle wird immer stärker verschleiert.
EN
So what you see more and more is that we as users of the computer have only access to the top layer of our computational processes. I think within the traditional forms of glitch art, that was exactly what we tried to undo or tried to maybe warn against, that this was the final outcome of computational developments. Within that process of just having access or the development that just gives us access to the final image, we lose a lot of understanding and insights in what it means to process image data, or just any type of data really. At the core of data is, as we may still remember, maybe zeros and ones, maybe some other types of transforms, but they are just values that are not yet interpreted. So when I think of the image processing pipeline, I'd like to start all the way at the beginning.
I'd like to think of, for instance, the light that comes to our eyes already. And that light can be also light that our eye doesn't see, right? Because everything around us, all the photons around us, there's only a very little slip of that photons that we can actually see and the rest is invisible to us, but might be visible to other types of technologies. For instance, Bluetooth, FM or AM radio, Wi-Fi signals, they all exist within this plane of data that is just floating as invisible light around us. One very fundamental starting point for me is also to think about the eye as kind of a very limited antenna. And then thinking about if we could exchange our eyes to something entirely different, like another type of antenna, what would that make us see? So think about like having a Wi-Fi antenna in your eye, then you would be able to see through the walls and see the data that comes into a router. We could see where it comes from, how it enters our computer, maybe what other types of radiation are interfering with it. And so we would understand the infrastructure just around us. And that is on a particular scale, but then we would look like on other scales and we see all kinds of data infrastructures around us.
So I'd like to start and speculate on that part of the body. The body is always part of this very big, very large scale infrastructure that is existing all around us: visible - invisible, accessible - inaccessible, owned and proprietary, or actually still partable (?), that we can play with. And if we uncover those places by putting a Wi-Fi antenna in our eye, as a metaphor, then we would actually learn to see through different forms of scale and scope. And that would give us really another way to approach the whole environment around us.
So when you say like, how does the body sit in this? Then for me, it starts at the very rudimentary part, which is just the eye seeing, being blind and politics being occluded somehow. I don't argue that we need to see everything. I try to argue for understanding what seeing means. Seeing is not just making things visible. It's also making things invisible. It's not just being able to perceive, but it's also to be blind to other things. And so here we have this dynamic again of what is being compromised and compromise in that sense is always necessary. We don't need everything, but we lose an empowerment if we don't understand where compromises exist. We lose the ability to think through and with compromise, we will lose the power to maybe sometimes do break open and understand the political dynamics of visibility, making visible what is being filtered out, what is being filtered in, what is being enhanced. And I think because our culture is so completely based on visibility, we need to understand the dynamics of invisibility much better.
I think we are just educated to know how to see and read, but we're not educated to know what is invisible. And I feel that is as an educator is really important to understand that there's this entire domain that would give us much more leverage and much more tools to not just understand how we see, what we see, but what is being unseen. And I feel that is where politics, embodiment, economies, they're all leveraged there on that threshold. But the access to that threshold is more and more obfuscated.
3. Ihr Verständnis von Stören
DE
Um noch einmal kurz auf den Glitch zurückzukommen, für den Anfang: Der Glitch wurde als Werkzeug benutzt, um die Erwartungen zu stören. Die Störung geht also Hand in Hand mit einer Art von Erwartung an die Funktionalität. Und dann stellt sich die Frage: Wer hat diese Erwartung aufgebaut? Wer hat diese Erwartung? Und in welchem Bereich wird etwas erwartet? Denn was wird von mir erwartet? Wird es tatsächlich von jemand anderem erwartet? Bringt dieses Werkzeug dasselbe Ergebnis?
Und ich würde das jetzt vielleicht auf die heutige Zeit übertragen in der vermehrt über K.I. oder was auch immer diskutiert wird. Wenn ich eine K.I. einsetze, werde ich ein völlig anderes Ergebnis haben als die nächste Person. Um die Prozesse der Bilderzeugung oder den Einsatz von Werkzeugen zu verstehen und das auf die heutige Zeit zu übertragen, wo wir ein Bildverarbeitungsprotokoll oder mehrere Protokolle haben, die unter der Überschrift Künstliche Intelligenz laufen, die darauf basieren, aber dann nicht als normale Bildverarbeitung funktionieren. Wir müssen wirklich auf die ersten Fragen zurückkommen: Was, wo und wie wurden Erwartungen aufgebaut, bevor wir dieses Werkzeug hatten, damit wir jetzt eine Art Plattform aufbauen können, von der aus wir beginnen können, zu analysieren, was unsere zukünftigen Störungsbereiche und Erwartungen sind, und für wen diese Arten von Erwartungen sind? Wem dienen sie? Wofür sind sie gedacht? Denn sie sind alle im Besitz von Monopolen, die diese Informationsdaten von Plattformen abgegriffen haben, die zu dieser Zeit wahrscheinlich von weißen Menschen gebaut wurden.
Es ist also ein sehr voreingenommener Raum, in den wir jetzt verlagert werden bzw. wurden. Unsere Praktiken sind nun festgeschrieben. Wie viele Apps nutzen Sie tagtäglich, die noch keine K.I. enthalten? Oh, sehen Sie sich das an. Sogar Zoom stimmt dem zu. Bei jeder App, die wir im Moment benutzen oder gefühlt bei jeder zweiten App, die wir benutzen, sind wir uns nicht bewusst, wie viel K.I. irgendwo in den Aufbau, in die Funktionsweise, in das Lesen dieser App involviert ist. Es gibt also auf jeder Ebene K.I.
Um zu verstehen, worauf sie aufbauen, müssen wir auch die Vorurteile unserer alten Technologien, unserer alten Bildverarbeitungstechnologien verstehen. Wie können wir das erreichen? Indem wir verstehen, was ihr erwarteter Ablauf war, wer ihre Nutzer waren, was ihre Normen sind. Dann haben wir bereits eine Vorstellung davon, wo der Kompromiss, die Störung usw. auftritt bzw. auftreten kann. Und dann müssen wir das auf die heutige Zeit übertragen, in der wir noch weniger Macht und noch weniger Einfluss auf unsere Politik haben. Und dann geht es wirklich um die Frage, wie wir zu einer Art von (Selbst-)Ermächtigung zurückkehren können.
EN
Well, to go back to the glitch maybe for a second, so just to step back to the start, the glitch was used as a tool to disturb what is expected. So the disturbance comes hand in hand with a type of expectations of functionality. And then the question becomes like, who has built that expectation? Who has that expectation? And in what domain is something expected? Because what is expected by me? Is it actually expected by someone else? Does that tool yield the same outcome?
And I would maybe now pull it back to today and we're talking about, for instance, A.I. or whatever. If I use an A.I., I will have a completely different outcome than the next one. To understand the processes of the creation of images or of the uses of tools and to pull that to words today, where we have an image processing protocol or multiple protocols, which are under the header of Artificial Intelligence, that are based, but then don't function as normal image processing. We need to really come back to the first what, where, and how were expectations built before we had this tool so that now we can kind of build the platform from which we can start to analyze what is our future realms of disturbance, expectations, and for who are those types of expectations? Who do they serve? What are they built for? Because they're all owned by, you know, monopoly data that have scraped that information from platforms built by, at the time, mostly probably white people.
So it's a very biased space in which we're now being transposed. Our practices are now being locked into. How many apps do you use on a day-to-day basis that don't have A.I. in them yet? Oh, look at that. Even Zoom agrees. Every app we're using right now, or I feel like every second app we're using, we're not aware how much A.I. is somewhere involved in the building, in the functioning, in the reading of that app. So there's A.I. in every level.
To understand what they're built on is to understand also the biases of our old technologies, of our old image processing technologies. How do we do that? It's by understanding what their expected flow was, who were their users, what are their norms. Then we already start to have a handle on where does the compromise, the disturbance, etc. come into. And then we need to leverage that back to a contemporary now in which we have even less power and even less grasp on our politics. And then it becomes really a question of how can we come back to some type of empowerment.
4. Der Einfluss des Verhältnisses von Körper und digitaler Kultur auf ihren Schaffensprozess
DE
Nun, wir benutzen unseren Körper die ganze Zeit, richtig? Man kann nicht wirklich an digitale Interaktion denken, ohne daran zu denken, dass es auch einen Körper gibt, der die Hardware benutzt, der in irgendeiner Form mit der Art und Weise, wie man steuert, was man tut und wer man innerhalb dieser Tools und Plattformen ist, in Verbindung steht. Ich finde es interessant, dass man in den letzten zehn Jahren damit begonnen hat, den Begriff "Postdigital" zu verwenden, um darauf hinzuweisen, dass wir diesen geteilten Zustand hinter uns gelassen haben, weil sie so vermischt sind, dass wir nicht mehr unterscheiden, was digital und was analog ist. Nicht nur unsere Sprachen, unsere visuellen Sprachen, sondern auch die Art und Weise, wie wir durch unsere Außenräume navigieren, sind völlig vermischt.
Wenn ich also durch den Bahnhof gehe, tue ich das mit meinem physischen Körper, aber ich benutze vielleicht fünf oder zehn verschiedene digitale Technologien oder ich werde benutzt, weil ich getrackt werde oder was auch immer. Ich bin eine Identität, eine Nummer, die nicht nur mit einem bestimmten Zeitstempel versehen ist, sondern auch mit einem bestimmten Geldbetrag, einem bestimmten Abonnement. Und dann schaue ich nach rechts und werde von einer Werbung angesprochen, und plötzlich bin ich ein bestimmter Online-Konsument, richtig? Aber mein Körper ist immer noch analog. Ich sehe keinen so großen Unterschied mehr zwischen dem, was analog und was digital ist. Sie sind miteinander verwoben. Das bedeutet aber auch, dass die Plattformpolitik und die Vorurteile, die sich aus einer längeren Geschichte von Technologien ergeben, und diese Technologien sind vielleicht nur optische Technologien, weitergetragen haben.
Wie zum Beispiel die Fotos, die im Playboy-Magazin abgedruckt wurden, die aber nur... Alle Protokolle werden nur an weißen Menschen getestet. So wird zum Beispiel der JPEG-Standard an einer weißen Person getestet. Das liegt daran, dass wir keine Technologien für farbige Menschen entwickelt haben, weil sie diese Technologien noch nicht kaufen konnten. Kodak Gold zum Beispiel ist ein alter analoger Fotostandard, der nur für Weiße gemacht wurde. Ich habe festgestellt, dass Bilder des Körpers im Internet sehr oft nichts mit der Person zu tun haben, die sie darstellen. So werden letztlich ihre Daten also abgegrast oder gesammelt, Ihre digitalen Informationsmarker, was auch immer, verwendet. Aber nicht nur das, auch Ihre Fotos auf bestimmten Plattformen werden erfasst, und all diese Informationen werden in einer riesigen Datenbank gespeichert. Sei es, um Algorithmen zu trainieren, Bilder zu betrachten und darin eine bestimmte Ästhetik zu finden.
Aber was man in den letzten Jahrzehnten beobachten konnte, ist, dass immer mehr Bilder zu Datenkonstrukten werden. Wir sehen, dass Big Tech eine Menge Daten sammelt, aber die Daten sind nicht mehr mit den realen Objekten verbunden, also vielleicht nicht mit dem Körper oder der Person, sondern sie werden zu einem Datenobjekt, aus dem Informationen abgeleitet werden. Denn das ist es, was diese Algorithmen tun. Sie speichern die Daten nicht mehr nur als reale Markierung in der Gesellschaft, sondern sie speichern sie und verwenden sie als Datenknoten, aus dem sie dann andere Informationen ableiten können. Man kann auch beobachten, dass die Menschen ihre Gesichter quasi verlieren. Ich beobachte, dass das Bild, sei es das Werk eines Künstlers oder das Gesicht einer realen Person, den Wert des realen Lebensbezugs langsam völlig verliert. Man sieht, dass wir aufgrund der künstlichen Intelligenz den Unterschied zwischen einem echten und unechten Foto nicht kennen.
Man sieht außerdem, wie ich es selbst erlebt habe, dass das Foto meines Gesichts verwendet und verwendet und kopiert und kopiert wurde, bis die Leute nicht mehr wissen, dass es eine Person gibt, mich, die tatsächlich dieses Gesicht hat, die mit diesem Gesicht aufwacht und die in der realen Welt existiert. Ich denke, dass Prozesse wie die Inferenz, also die Verwendung einer größeren Menge von Bilddaten, die in einer Datenbank gespeichert werden und dann nur als Datenknoten verwendet werden, um auf größere Funktionsweisen zu schließen, dazu führen, dass sich das Reale und das Digitale so sehr vermischen, dass wir den Unterschieden, sagen wir, keinen Wert mehr beimessen. Es gibt keinen Unterschied mehr zwischen realen und synthetischen Daten, weil wir jetzt Algorithmen entwickeln, die auf möglicherweise bereits synthetischen Datensätzen trainiert werden. Die Algorithmen, die auf realen Daten trainiert wurden, erstellen also synthetische Datensätze, auf denen sie dann neue Algorithmen trainieren. Das Ergebnis ist, dass es irgendwie keine echte Referenz mehr gibt.
Die Vermischung zwischen dem, was künstlich ist, dem, was real ist, dem, was digital ist, und dem, was analog ist, ist so weit fortgeschritten, dass ich nicht mehr glaube, dass es einen großen Unterschied gibt. In meiner eigenen Praxis habe ich diese Mischung auf einer sehr rudimentären Ebene erlebt:
Ich hatte also ein Bild von meinem Gesicht, das ich mit einem Glitch versehen habe. Ich habe einen Bruch in die Daten eingefügt, der sie so algorithmisch machte, dass man immer noch klar erkennen konnte, dass es sich um das Gesicht eines Menschen handelte, aber es wurde nicht mehr als Eigentum eines Menschen betrachtet, weil es irgendwie sehr oft als Daten betrachtet wurde. Und so ging das Bild meines Gesichts um die Welt und wurde Teil von Kapuzenpullovern, Plattenhüllen und Präsentationen über die Wirtschaft. Es wurde auf Plakaten für große Spenden-Websites verwendet, usw. So wurde mein Gesicht zum Symbol für Daten, insbesondere für Daten, die dem normalen Fluss zuwiderliefen. Das hat mich dazu gebracht, darüber nachzudenken, was es bedeutet, wenn man den Besitz oder das Bild seines Gesichts im Rahmen eines allgemeinen Verständnisses vom Begriff "Bild" verliert. Denn wenn das Bild ab einem bestimmten Punkt nur noch als Datei betrchtet wird, dann verändern sich viele Werte oder klassische Wege, dem Bild einen Wert zuzuweisen, traditionelle Wege des Lesens und der Verortung innerhalb der visuellen Sprache - ich würde sagen, das ändert sich...grundlegend.
Also habe ich mir angesehen, wer sonst noch sein Gesicht verloren hat. Wo gibt es frühere Beispiele für Menschen, die ihr Gesicht an die Technologie verloren haben? Und ich habe angefangen, mich mit Testkarten zur Bildkalibrierung zu beschäftigen. So kam ich zu dieser einen Arbeit, die auf dem Playboy-Mittelbild von 1972 basierte, einer Novemberausgabe, auf der Lena Forsén nackt abgebildet war. Als die Ingenieure der UCLA (Universität Kalifornien, Los Angeles) mit der Entwicklung der JPEG-Komprimierung begannen, verwendeten sie einen Ausschnitt aus diesem Mittelbild und trainierten ihren Algorithmus darauf. Sie testeten ihn. Sie testeten den JPEG-Algorithmus an diesem Playboy-Mittelbild. Dieses Bild war das einzige Bild, an dem sie ihren Algorithmus trainierten. Sie trainierten ihn also so, dass er nur für weiße, nackte, objektifizierte Frauen funktioniert. Das hat mich fasziniert, denn es ist ein klassisches Beispiel dafür, dass der Körper, die körperliche Identität, eine konkrete Voreingenommenheit in unsere digitalen Technologien einspeist, die dann verschleiert wird. Niemand ist sich bewusst, dass die Grundlage unserer JPEG-Algorithmen, auch auf MPEG, H.264 usw. übertragen und ebenso angewandt werden.
Die Algorithmen, die in unseren Bildverarbeitungstechnologien immer noch weit verbreitet sind, wenn nicht sogar am häufigsten verwendet werden, wurden also von Anfang an nur an weißen Menschen getestet. Bei farbigen Menschen wird das genauso funktionieren. Das Problem ist, dass unsere Augen, wie gesagt, die Art und Weise, wie wir unsere Augen benutzen, mehr Bilddaten, Kontraste und andere Arten von Werten in der Bildebene benötigen, um den Unterschied zwischen dunkleren Umgebungen zu erkennen, richtig?
Einfacher gesagt: Wenn Sie ein helles Bild betrachten, können Sie sehr leicht den Unterschied zwischen feinen Veränderungen innerhalb dieser Bildebene erkennen. Sie müssen nicht viele Daten oder Speicherplatz für das Bild bereitstellen, um zu sehen, wo eine kleine Linie in einer hellen Ebene liegt. Bei einer dunklen Ebene ist es für das Auge schwieriger, kleine Veränderungen zu erkennen. Daher müssen diese Linien klarer definiert sein, und um ein Bild mit mehr Definition zu speichern, werden mehr Bilddaten benötigt. Es ist nicht so, dass der JPEG-Algorithmus das Bild einer weißen Person im Vergleich zu dem einer frabigen Person nicht auf eine andere Art verarbeitet. Es geht darum, dass unsere Augen, wenn wir diese Art von Bildern wirklich richtig sehen wollen, nicht in der Lage sind, sie so gut zu sehen. Das hellere Bild gegenüber dem dunkleren Bild. Unsere Augen benötigen unterschiedliche Methoden, um wahrzunehmen. Das liegt daran, dass die menschliche Physiologie, unsere Augen nur auf diese Art und Weise funktionieren. Als ich also feststellte, dass wir immer nur einen sehr hellen Hautton berücksichtigt haben, um diese Art von Bildern zu verarbeiten, fand ich es faszinierend, dass dies eine so alltägliche rassistische Voreingenommenheit innerhalb unserer Bildverarbeitungstechnologien ist. Und dass das nicht nur ein Einzelfall ist, sondern dass es viele Arten von Komprimierungen, viele Arten von Bildverarbeitungstechnologien gibt, die solche grundlegenden Vorurteile nutzen.
Als zum Beispiel das iPhone die Gesichtserkennung einführte, wurde diese nur an kaukasischen Menschen getestet. Wenn also Menschen mit asiatischen Knochenstrukturen iPhones benutzen, sehen alle Asiaten gleich aus. So konnte eine asiatische Mutter das Telefon ihrer Tochter ganz einfach entsperren, weil sie das gleiche Gesicht hatten. Das liegt daran, dass wir unsere Bildverarbeitungstechnologie nur an einer Art von Gesicht getestet haben. Und wir müssen uns darüber im Klaren sein, dass wir, d. h. meistens immer noch weiße Menschen im Silicon Valley, Technologien für weiße Menschen entwickeln. Wir haben vergessen, die Technologien an anderen Menschen zu testen bzw. zu kalibrieren.
Lange Rede, kurzer Sinn, ich habe einfach angefangen, auf allen möglichen Ebenen Vorurteile zu erkennen, die man nur erkennt, wenn man fragt, wer diese Technologie für wen baut, für wen sie nicht gebaut wird, wer bei der Entwicklung dieser Technologie gefährdet wird, wer nicht berücksichtigt wurde? In meiner eigenen Arbeit habe ich angefangen, über die Damen der Bildkalibrierung nachzudenken. Und so begann ich, eine "Army of De/Calibration Test Cards" zu sammeln, wie ich es nenne. Und ich stellte mir vor, was passieren würde, wenn all diese Frauen, die ihr Gesicht der Kalibrierung von Bildverarbeitungs-Technologien geliehen haben, sich zusammensetzen und darüber sprechen würden, wie Bildverarbeitungs-Technologien heute funktionieren, für wen sie funktionieren und wer sie so gebaut hat, dass sie auf diese spezielle Art und Weise funktionieren, d.h. höchstwahrscheinlich kaukasische Leute im Silicon Valley, die sie so gebaut haben, dass sie für kaukasische Leute funktionieren, die eine Menge Geld ausgeben, um unsere iPhones zu kaufen, was auch immer. Und so bekam ich all diese Testkarten zur Bildkalibrierung, all diese schönen Frauen. Und ich dachte, was wäre, wenn ich sie einfach noch schöner machen würde? Ich würde sie durch eine Bildverschönerungs-App schicken, eine Selfie-Verschönerungs-App, und ich würde sie schön machen, nicht einmal, nicht zweimal, sondern hunderte Male. Was würde passieren, wenn ich das Bild erneut speichern würde, um zu sehen, wie diese Verschönerung immer mehr betont wird?
Das Ergebnis waren Monstrositäten, die ich die "De/Calibration Army" nenne. So wird nicht nur gezeigt, was die Kompression bewirkt, wenn Sie das Bild komprimieren und komprimieren und komprimieren, sondern auch die Übersättigung einer Verschönerungsnorm, eines Verschönerungsstandards ad absurdum geführt.
EN
Well, we use our body all the time, right? You cannot really think of digital interaction without thinking about also there being a body that is actually touching the hardware, that has some type of relation to the way you're steering, what you're doing, who you are within those tools and platforms. It's interesting to me that recently people, in the last decade basically, people have started to use the term "postdigital" as a term to indicate that we are past this hybrid state because they're so mixed that we don't differentiate between what is maybe digital and what is analog. Not just our languages, our visual languages, but also the ways we navigate through our outside spaces are completely mixed.
So when I walk through the train station, I walk with my physical body, but I'm using maybe five or ten different digital technologies, or I'm being used maybe because I'm tracked or whatever. I'm an identity that is a number that is not just there in a particular timestamp, but also has a particular amount of money, a particular subscription. And then I'm looking to my right and I'm being targeted by an advertisement and I am suddenly a particular online consumer, right? But my body is still analog. I don't see that big difference between what is analog and what is digital anymore. They're intertwined. But that being said, that also means that maybe the platform politics and the biases that are coming from a longer history of technologies, and those technologies, they may be just optical technologies.
How, for example, photographs that were printed in Playboy magazine, but that were just... All protocols are just being tested on white people. So for instance, the JPEG standard is tested on a white person. That is because we were not making technologies for people of color, because they would not buy those technologies yet. Like for instance, Kodak Gold is an old analog photography standard that was just made for white people. I've just started to realize that images of the body online are very often disconnected from who that person is. So you will be scraped or collected, your data, your digital information marker, whatever will be taken. But not just that, your photos on particular platforms will be taken and they'll get all of that information, gets into a huge database, whether it's for training algorithms or it's for looking at images and finding kind of particular aesthetics within those.
But what you start to see happening or what has happened over the last decades is that more and more images are becoming data constructs. What we see is that big tech is collecting a lot of data, but the data is no longer connected to the real world object, meaning maybe not the body or the person, but it becomes a data object from which information is inferred. Because that's what those algorithms do. They are no longer just saving the data as a real marker in society, they're saving it and using it as a data point from which they can infer then other information. What you see happening is also that people just lose their faces. I've been seeing that the image, whether that's an image of an artist, whether it's the face of a real person, the value of the real life reference is just slowly completely gone. You see that because artificial intelligence, we don't know the difference between a real and a non-real photo.
But also you see, like I've experienced myself, that the photo of my face has been used and used and copied and copied until people don't realize there was once a person, me, that actually has that face, wakes up with that face, and that exists in the real world. I think processes like inference, so using a lot of image data, putting that in a database and then using them just as data points to infer larger ways of operation, makes it so that the real and the digital get so mixed that we don't actually assign value to the differences, let's say. There is no longer a difference between what is real and what is synthetic data, because we are now creating algorithms that are trained on what might be already synthetic data sets. So the algorithms that have been trained on real world data, they're creating synthetic data sets to then train new algorithms on. And so what you get is this like, no longer a true reference somehow.
So the mix between what is artificial, what is real, what is digital, what is analog, those are so beyond mixing that I don't think there is so much of a difference anymore. In my own practice, I have experienced this mix on a very rudimentary level:
So I had an image of my face that I glitched. I put a break into the data that made it so kind of algorithmic that you could still clearly see it was the face of what was a human, but it was no longer considered to be owned by a human because it was somehow very often more considered as data. And so that image of my face started to move throughout the world and became part of hoodies and record sleeves and presentations about the economy. It was used by posters for big donating websites, etc. So my face just became the symbol of data, specifically maybe data that was against a normal flow. And that made me really think about what it means to lose the ownership or the image of your face within a general understanding of what the image is. Because if the image just becomes data at a certain point, then a lot of value or classic ways to allocate value to that image, traditional ways of reading and finding how to locate that within visual language, I'd say it's changing...deeply.
So I started to look at who else has lost their face. Where are earlier examples of people losing their face to technology? And I started to look into image calibration test cards. And that's where I made this one work, which was based on the Playboy centerfold of 1972, which was a November issue that had Lena Forsén naked in the middle. When engineers in UCLA (University of California, Los Angeles) started to build the JPEG compression, they used a cutout of that centerfold and they trained their algorithm on that. They tested it. They tested the JPEG algorithm on this Playboy centerfold image. That image was just the one image that they trained their algorithm on. And so they trained it to work just for white, naked, objectified lady. I was fascinated with that because that is just such a classic example of the body, corporeal identity, bringing a direct bias into our digital technologies that then becomes obfuscated. No one is aware that the basis of our JPEG that is then ported towards MPEG, etc., H.264 algorithms.
So the algorithms that are still widely, if not the most used in our image processing technologies are all tested from the very first start on just white people. They will work the same on people of color. The problem is that our eyes, again, so the ways we make sense via our eyes, we might need data, more image data, contrasts and other types of value in that image plane to see the difference between darker environments, right?
Maybe I need to make it a little bit more simple: When you look at a light image, you will see very easily the difference between fine changes within that plane of the image. You don't need to allocate a lot of data, space to save the image away to still be able to see where a little line exists within a light plane. If you have a dark plane, your eye has a harder time to recognize small changes. And so what you will need is you will need those lines to be more defined and to write a way to save an image with more definition takes more image data. It's not that the JPEG algorithm doesn't write away the image of a white versus a person of color in a different way. It is that our eyes, if we really want to be able to see those types of images proper, our eyes will not be able to see them as well. The lighter image versus the darker image. Our eyes require different ways of writing away. That is because the human physiology, our eyes work only in that type of way. So when I noticed that we've only ever taken into account a very light skin tone to write those types of images away, I found it fascinating that that is such commonplace racist bias within our image processing technologies. And that that is not just a one-off, that there is many types of compressions, many types of image processing technologies that use such basic bias.
Take for example, when the iPhone was implementing facial recognition, they were testing that just on Caucasian people. And so when people with Asian bone structures would use iPhones, all Asian people would look the same. And so an Asian mother could unlock the phone of their daughter really easily because they were of the same face. That is because we have trained our image processing technology, or we have just tested it on one type of. And we have to understand that we, we meaning most often still white people in Silicon Valley, are building technologies for white people. And we will forget to test it very often on other people.
Long story short, I just started to recognize on all types of levels, biases that you only recognize when you ask who is building this technology for who, who are they not building this technology for, who gets compromised within the building of this technology, who wasn't considered? What I did specifically in my own work is that I started to think through the ladies of image calibration. And so I started to collect what I call an "Army of Image De/Calibration Test Cards". And I imagined that what would happen if all of these women that have borrowed their face to the calibration of image processing technologies, what would happen if they would sit together and talk through how image processing technologies now work for who do they work and who has built them to work in those specific ways, meaning most possibly Caucasian people in Silicon Valley that built them to work for Caucasian people that will spend a lot of money to buy our iPhones, whatever. And from that, I got all those image calibration test cards, all these beautiful ladies. And I thought, what if I would just make them more beautiful? I would put them through an image beautifying app, a selfie beautifying app, and I would make them beautiful, not once, not twice, but hundreds of times. What would happen if I would resave that image and see how this beautification gets more and more emphasized?
What I got were these kind of monstrosities and I call them the "De/Calibration Army". And what you will see is not just what compression does when you compress and compress and compress the image, but also the kind of oversaturation of a beautification norm, beautification standards.
5. Wie beeinflusst Postdigitalität ihren Denk- und Schaffensprozess?
DE
Meine künstlerische Praxis basiert auf Forschung. Ich finde also digitale Objekte, ob sie nun statisch oder in Bewegung sind, ob es vielleicht Algorithmen oder Plattformen oder was auch immer sind. Ich versuche immer herauszufinden, in welcher Ökologie das Objekt lebt, woher es kommt? So wird schnell eine Art Medienarchäologie an diesen Objekten notwendig. Und Medienarchäologie muss meiner Meinung nach zu einem großen Teil im Internet betrieben werden. Man hat also nicht wirklich die Freiheit des Stöberns. Das Stöbern findet jetzt wirklich nur noch im Internet statt, glaube ich zumindest. Ich meine, ich habe viele Bücher. Ich stöbere viel, aber es ist kein billiges Hobby.
Ich denke, dass ein Großteil meiner Recherchen durch die letzten Freiheiten des Internets zustande kommt, das mir immer noch Raum zum Stöbern und für Zufallsfunde gibt. Ich denke, es beginnt mit meiner Recherche, und dieser hybride Raum dehnt sich dann auf die Art und Weise aus, wie ich meine Arbeit produziere und öffne, sei es das Kunstwerk oder die Recherche, denn ich mache beides. Und ich versuche auch, beides zu präsentieren, die Forschung meist nur auf meiner Website und dann die Kunstwerke natürlich in Ausstellungen im Internet aber auch auf meiner Website. Wenn ich von Internet spreche, dann meine ich eigentlich die Plattformen. Die Art und Weise, wie ich sie meinem Publikum zeige, besteht also auch darin, dass ich mir überlege, wie ich sie fotografiere oder präsentiere, und zwar nicht nur mit den Mitteln eines Publikums, das um sie herumgeht, sondern auch, wie ich sie fotografiere.
Wie kann ich eine Ausstellung, die ich in einer Kunstgalerie in Lausanne installiert habe, präsentieren? Wie kann ich sie online fast genauso interessant machen? Ich mache nicht einfach nur ein Foto, sondern übersetze die Arbeit in die Umgebung verschiedener Medien, d.h. in ein Video, in eine Sammlung von Fotos, in eine Erzählung, in eine Dokumentation, usw. Diese Produktion, die ich betreibe, erforscht sowohl, sagen wir, Wege, Bilder zu schaffen, als auch Wege, wie man Dinge nicht in Bildern festhalten kann, oder wie man Dinge überhaupt im visuellen Bereich darstellen kann.
Diese Forschung ist bereits körperlich, weil unsere Augen, weil unsere Körper damit umgehen müssen, und sie existiert dann in der Welt, die sowohl physisch ist, aber auch von vernetzter Politik, Infrastrukturen usw. bestimmt wird. Und dann kann ich von einem Publikum erreicht werden, das ich über die Plattformen, die Netzwerke usw. erreichen kann und das mich sieht. Es gibt also all diese verschiedenen Ebenen, auf denen ich denke, dass ich diesen hybriden Raum berücksichtigen und mit ihm arbeiten muss.
EN
My practice is research based. So I find digital objects, whether they are steady, procedural, whether there are maybe algorithms or platforms or whatever, like an object that fascinates me, I try to always kind of find what ecology it lives in, where it comes from. And so very easily, you have to do some type of media archaeology on those objects, right? And media archaeology, I think a lot of that has to be done on the internet. So you don't really have that freedom of browsing. Like the browsing now really exists within the internet only, I feel at least. Like, I mean, you know, I have a lot of books. I browse a lot, but it's not a cheap hobby.
I think a lot of my research exists and happens by the grace of the internet still giving me space for browsing and serendipity. So I think it starts with my research and then that hybrid space extends towards how I maybe produce and then also open up my work, whether that's the artwork or the research, because I do both. And I also try to present both, and the research mostly only on my website. And then the artworks obviously in shows on the internet and on my website. But when I say the internet, I then mean really the platforms. So the ways I show it to my audience is also to consider how to photograph or present it via not just the means of an audience walking around it, but also how I then take photos of it.
How can I bring a show that I installed in an art gallery in Lausanne? How can I make that almost as interesting online? That is not by making just a photo, that is by translating that work towards the environment of different media, meaning a video, meaning a collection of photos, a narrative around it, a documentation, etc. This production that I'm doing, which is both researching, let's say, ways of creating images and ways of how not to catch things in images, or how to make things represented within the visual realm.
That research is already corporeal, because of our eyes, because of our bodies needing to deal with that, then exists within the world, which is both physical, but also governed by networked politics, infrastructures, etc. And then can be reached by an audience, I can reach and can be seen through the platforms, the networks, etc. So there are all these different levels at which I think I have to consider and work with this hybrid space.
6. Rosa Menkmans Sicht auf das Zusammenspiel von Digitalität und Kunstunterricht
DE
Es ist jetzt eine wirklich wichtige Zeit, um nicht nur darüber nachzudenken, was es bedeutet, zu lehren, sondern auch, was es bedeutet, zu lernen. Ich denke, das ist vielleicht die größere Frage. Und dann, wenn man etwas lernt, was ist dann Wissen? Wie schafft man Wissen? Denn die Werkzeuge, die uns im täglichen Leben zur Verfügung stehen, vielleicht noch nicht im Klassenzimmer, aber die Werkzeuge, die uns zur Verfügung stehen, verändern sich rapide. Und das bedeutet, dass sie die Art und Weise verändern, wie wir unsere Nachrichten, unser Wissen und unsere Informationen finden. Ich würde sogar so weit gehen, dass sich die Lesbarkeit, die Qualität und vielleicht auch der Bezug zur Realität ändern. Es ist bereits sehr schwer zu wissen, was real ist und was nicht, oder wie man überhaupt definieren kann, was Realität sein kann.
Und dann ist da noch die Art und Weise, wie wir im täglichen Leben wissen, wie wir Dinge herstellen, sei es ein Rezept, wie wir unsere kleinen Balkone gärtnern oder wie wir ein Bild für eine PowerPoint-Präsentation erstellen. Diese Handlungen und das Wissen darüber, wie diese Dinge herzustellen/auszuführen sind, sowie die Art und Weise, wie wir dieses Wissen erlangen, verändern sich völlig. Unsere alltägliche Infrastruktur, die Art und Weise, wie wir uns verhalten, ändert sich also sehr, sehr schnell. Für mich stellt sich dann die Frage, welche Rolle die Bildungseinrichtung dabei spiel? Sind wir immer noch da, um zu unterrichten, oder müssen wir die Institution vielleicht auch auf die Diskussion darüber ausweiten, was Werkzeuge sind? Werkzeuge für die Schaffung von Wissen, für das Suchen und Finden. Ich denke, diese Fragen sind noch nicht vollständig in die Diskussion unserer Bildungseinrichtungen eingeflossen. Aber da sich diese Werkzeuge schnell entwickeln, müssen wir verstehen, wie sie nicht nur ihren Output formen, sondern auch die Möglichkeiten, sie zu benutzen, und auch, wer sie herstellt?
Und welche Rolle spielen sie dann in der Bildung? Und zwar nicht nur für die klassische Bildung, sondern auch für die zeitgenössische und zukünftige Bildung. Diese Diskussionen werden meiner Meinung nach absolut unterbewertet oder vielleicht noch nicht ausreichend geführt. Unsere Umgebung, unser tägliches Leben, hat sich durch die Veränderungen in unseren Werkzeugen bereits völlig verändert. Wenn Sie mich also nach der Rolle dieser digitalen Praktiken in unseren Bildungseinrichtungen fragen, würde ich wirklich darüber nachdenken, was wir lehren wollen. Welche Rolle soll das Bildungsumfeld haben? Denn vielleicht ändert sich die Rolle, weil sich auch die Suche nach Informationen ändert. Was bedeutet das für die Institution? Vielleicht müssen wir den Rahmen der Bildungseinrichtung wirklich überdenken und dann vielleicht neu formulieren und das Ganze irgendwie auseinander nehmen.
Ich denke viel darüber nach, weil ich viel unterrichte und weil es für meine Studierenden sehr einfach ist, wahllos irgendwelche Antworten zu finden. Früher ging es bei der Recherche darum, eine Antwort auf eine Frage zu finden. Wenn ich meine Schüler auffordere, eine Antwort auf eine Frage zu finden, dann heißt es für sie heutzutage, zu googeln oder die künstliche Intelligenz um eine Antwort zu bitten. Und so wird dieser ganze Schritt der Forschung umgangen. Er ist nicht mehr Teil davon. Ich muss also vielleicht die Art und Weise ändern, wie ich meinen Studierenden Aufgaben stelle. Aber ich erlebe immer noch, dass meine Studierenden denken, dass der Prozess des Antwortengebens sehr eindimensional ist. Früher warf ich bei der Forschung ein weites Netz aus, um verschiedene Blickwinkel auf ein Forschungsobjekt zu finden, und das tun sie jetzt nicht mehr. Die Dinge scheinen sehr flach zu sein/werden.
Das betrifft auch Fragen wie, was Forschung ist, was die Schaffung von Perspektive oder einer Antwort ausmacht, sowie, was eine Formulierung ist? Ich denke, mit der Einbeziehung der Instrumente, die wir nicht rückgängig machen können, müssen wir damit beginnen, sie in unsere Lehrpläne aufzunehmen. Wir müssen den Forschungsprozess wirklich neu formulieren.
Ich frage also etwas, das meinen Studierenden fremd ist, etwas, das sie nicht kennen, und es fällt ihnen schwer, mit mir auf diese Reise zu gehen, auf der es darum geht, Perspektiven zu entwickeln, anstatt Perspektiven zu fordern, sagen wir mal. In dem Moment, in dem es keinen Raum oder keine Erwartung seitens der Institution an die Studierenden gibt, zu forschen, wird die Ausbildung flach, sie wird hohl, so meine Erfahrung. Und ich stelle fest, dass es keinen Raum für echte Gespräche und echte Praxis gibt. Und wenn die Einrichtung diese Art der Beteiligung ihrer Studierenden nicht fördert, ist die Art und Weise, wie sie ihre Kurse abschließen, sehr einfach geworden. Es ist wirklich schwer für die Institution, es den Studierenden irgendwie "herausfordernd zu machen", zu verstehen, was es bedeutet, zu forschen, weil das Forschen nicht mehr wirklich erforderlich ist.
Wenn man vier oder zwei von drei Klassen hat, die diese Art von Beteiligung nicht erfordern, dann kann ich dies von der dritten Klasse nicht mehr verlangen. Wir können die Werkzeuge, die uns zur Verfügung stehen, nicht rückgängig machen, wir können K.I. nicht rückgängig machen, wir können Suchalgorithmen und Suchmaschinen nicht rückgängig machen. Wir müssen diese Technologien also auf eine Art und Weise integrieren, die von unseren Lernenden und unserer Umgebung verlangt, dass sie selbständig denken.
Wir müssen also wirklich neu darüber nachdenken, was Bildung bedeutet. Es geht nicht darum, die Antwort zu finden, sondern einen Antwort-Prozess. Ich weiß nicht wie, aber man kann versuchen, den Lernenden das individuell beizubringen, z. B. im eigenen Unterricht, aber ich kann es nicht allein. Dies erfordert also eine völlige Überarbeitung des Konzepts, was Bildung in unserer digitalen Zeit bedeutet.
EN
Well, it's a really important time right now to consider not just what it means to teach, but also what it means to learn. I think that is maybe the bigger question. And then also, when you learn something, what is knowledge? How do you create knowledge? Because the tools that are at our disposal in our daily lives, so maybe not yet in the classroom, but the tools that are at our disposal are changing rapidly. And that means they are changing the way we find our news, we find our knowledge, we find our information. But I'll go as far as that what is changing is that there is a change in legibility, in quality, in maybe a reference to reality. It's very hard now to know what is real and what is not real, or even how to define what reality is in a certain way.
And then also the way we, in a day-to-day life, know how to create things, whether that is a recipe, how to garden our little balconies, or how to create an image for a PowerPoint. Those actions and the knowledge about how to do these things are also the way we gain that knowledge, are completely changing. So our day-to-day infrastructure, the ways we behave, are changing really, really rapidly. To me, the question then becomes what's the role of the educational institution there? Are we there to still educate, or do we also maybe have to extend the institution towards the discussion of what tools are? Tools of creation, of knowledge making, of searching, of finding. And I think those questions have not yet fully entered the discussion of our educational institutions. But as those tools are rapidly developing, we need to have a grasp on how they don't just form their output, but also our ways of using them, and also who makes them.
And then what role do they have in education? And not just, you know, classic education, but also contemporary and future education. So these discussions are, I think, absolutely undervalued, or maybe not had enough as of now. While our environments our day-to-day lives are completely changed already by the changes within our tools. So when you're asking me about the role of these digital practices within our educational environments, I would really think about what is it that we want to teach? What role do we want the educational environment to have? Because maybe the role is changing, because the finding of information is also changing. Where does that leave the institution? Like maybe we need to really reconsider the framework of the institution of education, and then maybe reformulate and really pull that apart somehow.
I think about it a lot because I've been teaching a lot, and because it's really easy for my students to find any kind of answer haphazardly. What it used to be to do research was to find an answer to a question. When I ask my students to find an answer to a question, for them it's, you know, to Google or to ask artificial intelligence an answer now. And so that whole step of research is being bypassed. It's no longer part of that. So I need to change maybe the way I make assignments for my students. But then still I'm experiencing that my students think that the processes of giving answers are very one-dimensional. I used to do research by casting out a wide net, finding different angles towards a research object, and they are no longer doing that. Things seem to be very flat.
The question of what is research, what is the creation of a perspective, the creation of an answer, what is a formulation? I think with the inclusion of the tools that we cannot undo, we need to start to make them part of our educational curricula. We have to reformulate really the research process.
And so I ask something alien, something unfamiliar to my students, and I find it really hard for them to come with me on that trip towards developing perspectives rather than prompting perspectives, let's say. The moment there's no space or no expectation from the institution for the students to do research, the education becomes flat, it becomes hollow, I experience. And I find that there is no space for real conversation and real practice. And if the institution doesn't leverage that kind of involvement of their students, the way they graduate their classes has become very simple. It is really hard for the institution to "make it hard" somehow for the students to understand what it means to explore and do research is no longer really required very often.
Once you have four or two out of three classes that don't require that type of involvement, then the third class cannot ask that. We cannot undo the tools that we have around us, we cannot undo A.I., we cannot undo search algorithms and search engines. So we need to integrate that in a way that still requires our students, our environments to also think for themselves. Right?
So there is some type of way that we need to really rethink what education means. It's not finding the answer, it is finding a process. I don't know how, but this is, you can try to train your students to do that individually, like in your own classes, but I cannot do it alone. So this requires a full overhaul of thinking what education means within our digital times.
7. Bildverzeichnis
Menkman, Rosa, Webseiteneigene Illustration der Resolution Studies.
https://beyondresolution.info/RESOLUTION-STUDIES
Foto Jeschner, Kodak Gold 200 135/24 Analog-Kleinbildfilm-Schachtel.
https://foto-jeschner.rf-webworld.de/shop/produkt/kodak-gold-200-135-24-kleinbildfilm-61526
Menkman, Rosa, A Vernacular of File Formats, 2010-....
https://beyondresolution.info/A-Vernacular-of-File-Formats
Menkman, Rosa, traces of an appropirated Vernacular (or a vernacular published out of context), 2016.
https://www.flickr.com/photos/r00s/26953550476/in/album-72157667588863463
Menkman, Rosa, traces of an appropirated Vernacular (or a vernacular published out of context), 2016.
https://www.flickr.com/photos/r00s/26829119393/in/album-72157667588863463
Menkman, Rosa, traces of an appropirated Vernacular (or a vernacular published out of context), 2016.
https://www.flickr.com/photos/r00s/26392050824/in/album-72157667588863463
By Original full portrait: "Playmate of the Month". Playboy Magazine. November 1972, photographed by Dwight Hooker.This 512x512 electronic/mechanical scan of a section of the full portrait: Alexander Sawchuk and two others[1]Permission = Use of this 512x512 scan is "overlooked" and by implication permitted by Playboy.[2]Alexander Sawchuk et al scanned the image and cropped it specifically for distribution for use by image compression researchers, and hold no copyright on it.[1] - The USC-SIPI image database, Fair use, https://en.wikipedia.org/w/index.php?curid=20658476
Menkman, Rosa, Les Inconnues, 365 Perfect Decalibration, 2019- ongoing.
https://beyondresolution.info/SHADOW-KNOWLEDGE-2
Menkman, Rosa, 365 Perfect Decalibration, 0:07 min., 2019- ongoing.
https://beyondresolution.info/DECALIBRATION-ARMY
Menkman, Rosa, 365 Perfect Decalibration, 2019- ongoing.
https://beyondresolution.info/DECALIBRATION-ARMY