Video-Transkript: Rosa Menkman
Abschlussbedingungen
Nutzen Sie bei der Bearbeitung der Videos die entsprechenden Videotranskripte (Das Interview wurde in englischer Sprache durchgeführt!)
4. Der Einfluss des Verhältnisses von Körper und digitaler Kultur auf ihren Schaffensprozess
DE
Nun, wir benutzen unseren Körper die ganze Zeit, richtig? Man kann nicht wirklich an digitale Interaktion denken, ohne daran zu denken, dass es auch einen Körper gibt, der die Hardware benutzt, der in irgendeiner Form mit der Art und Weise, wie man steuert, was man tut und wer man innerhalb dieser Tools und Plattformen ist, in Verbindung steht. Ich finde es interessant, dass man in den letzten zehn Jahren damit begonnen hat, den Begriff "Postdigital" zu verwenden, um darauf hinzuweisen, dass wir diesen geteilten Zustand hinter uns gelassen haben, weil sie so vermischt sind, dass wir nicht mehr unterscheiden, was digital und was analog ist. Nicht nur unsere Sprachen, unsere visuellen Sprachen, sondern auch die Art und Weise, wie wir durch unsere Außenräume navigieren, sind völlig vermischt.
Wenn ich also durch den Bahnhof gehe, tue ich das mit meinem physischen Körper, aber ich benutze vielleicht fünf oder zehn verschiedene digitale Technologien oder ich werde benutzt, weil ich getrackt werde oder was auch immer. Ich bin eine Identität, eine Nummer, die nicht nur mit einem bestimmten Zeitstempel versehen ist, sondern auch mit einem bestimmten Geldbetrag, einem bestimmten Abonnement. Und dann schaue ich nach rechts und werde von einer Werbung angesprochen, und plötzlich bin ich ein bestimmter Online-Konsument, richtig? Aber mein Körper ist immer noch analog. Ich sehe keinen so großen Unterschied mehr zwischen dem, was analog und was digital ist. Sie sind miteinander verwoben. Das bedeutet aber auch, dass die Plattformpolitik und die Vorurteile, die sich aus einer längeren Geschichte von Technologien ergeben, und diese Technologien sind vielleicht nur optische Technologien, weitergetragen haben.
Wie zum Beispiel die Fotos, die im Playboy-Magazin abgedruckt wurden, die aber nur... Alle Protokolle werden nur an weißen Menschen getestet. So wird zum Beispiel der JPEG-Standard an einer weißen Person getestet. Das liegt daran, dass wir keine Technologien für farbige Menschen entwickelt haben, weil sie diese Technologien noch nicht kaufen konnten. Kodak Gold zum Beispiel ist ein alter analoger Fotostandard, der nur für Weiße gemacht wurde. Ich habe festgestellt, dass Bilder des Körpers im Internet sehr oft nichts mit der Person zu tun haben, die sie darstellen. So werden letztlich ihre Daten also abgegrast oder gesammelt, Ihre digitalen Informationsmarker, was auch immer, verwendet. Aber nicht nur das, auch Ihre Fotos auf bestimmten Plattformen werden erfasst, und all diese Informationen werden in einer riesigen Datenbank gespeichert. Sei es, um Algorithmen zu trainieren, Bilder zu betrachten und darin eine bestimmte Ästhetik zu finden.
Aber was man in den letzten Jahrzehnten beobachten konnte, ist, dass immer mehr Bilder zu Datenkonstrukten werden. Wir sehen, dass Big Tech eine Menge Daten sammelt, aber die Daten sind nicht mehr mit den realen Objekten verbunden, also vielleicht nicht mit dem Körper oder der Person, sondern sie werden zu einem Datenobjekt, aus dem Informationen abgeleitet werden. Denn das ist es, was diese Algorithmen tun. Sie speichern die Daten nicht mehr nur als reale Markierung in der Gesellschaft, sondern sie speichern sie und verwenden sie als Datenknoten, aus dem sie dann andere Informationen ableiten können. Man kann auch beobachten, dass die Menschen ihre Gesichter quasi verlieren. Ich beobachte, dass das Bild, sei es das Werk eines Künstlers oder das Gesicht einer realen Person, den Wert des realen Lebensbezugs langsam völlig verliert. Man sieht, dass wir aufgrund der künstlichen Intelligenz den Unterschied zwischen einem echten und unechten Foto nicht kennen.
Man sieht außerdem, wie ich es selbst erlebt habe, dass das Foto meines Gesichts verwendet und verwendet und kopiert und kopiert wurde, bis die Leute nicht mehr wissen, dass es eine Person gibt, mich, die tatsächlich dieses Gesicht hat, die mit diesem Gesicht aufwacht und die in der realen Welt existiert. Ich denke, dass Prozesse wie die Inferenz, also die Verwendung einer größeren Menge von Bilddaten, die in einer Datenbank gespeichert werden und dann nur als Datenknoten verwendet werden, um auf größere Funktionsweisen zu schließen, dazu führen, dass sich das Reale und das Digitale so sehr vermischen, dass wir den Unterschieden, sagen wir, keinen Wert mehr beimessen. Es gibt keinen Unterschied mehr zwischen realen und synthetischen Daten, weil wir jetzt Algorithmen entwickeln, die auf möglicherweise bereits synthetischen Datensätzen trainiert werden. Die Algorithmen, die auf realen Daten trainiert wurden, erstellen also synthetische Datensätze, auf denen sie dann neue Algorithmen trainieren. Das Ergebnis ist, dass es irgendwie keine echte Referenz mehr gibt.
Die Vermischung zwischen dem, was künstlich ist, dem, was real ist, dem, was digital ist, und dem, was analog ist, ist so weit fortgeschritten, dass ich nicht mehr glaube, dass es einen großen Unterschied gibt. In meiner eigenen Praxis habe ich diese Mischung auf einer sehr rudimentären Ebene erlebt:
Ich hatte also ein Bild von meinem Gesicht, das ich mit einem Glitch versehen habe. Ich habe einen Bruch in die Daten eingefügt, der sie so algorithmisch machte, dass man immer noch klar erkennen konnte, dass es sich um das Gesicht eines Menschen handelte, aber es wurde nicht mehr als Eigentum eines Menschen betrachtet, weil es irgendwie sehr oft als Daten betrachtet wurde. Und so ging das Bild meines Gesichts um die Welt und wurde Teil von Kapuzenpullovern, Plattenhüllen und Präsentationen über die Wirtschaft. Es wurde auf Plakaten für große Spenden-Websites verwendet, usw. So wurde mein Gesicht zum Symbol für Daten, insbesondere für Daten, die dem normalen Fluss zuwiderliefen. Das hat mich dazu gebracht, darüber nachzudenken, was es bedeutet, wenn man den Besitz oder das Bild seines Gesichts im Rahmen eines allgemeinen Verständnisses vom Begriff "Bild" verliert. Denn wenn das Bild ab einem bestimmten Punkt nur noch als Datei betrchtet wird, dann verändern sich viele Werte oder klassische Wege, dem Bild einen Wert zuzuweisen, traditionelle Wege des Lesens und der Verortung innerhalb der visuellen Sprache - ich würde sagen, das ändert sich...grundlegend.
Also habe ich mir angesehen, wer sonst noch sein Gesicht verloren hat. Wo gibt es frühere Beispiele für Menschen, die ihr Gesicht an die Technologie verloren haben? Und ich habe angefangen, mich mit Testkarten zur Bildkalibrierung zu beschäftigen. So kam ich zu dieser einen Arbeit, die auf dem Playboy-Mittelbild von 1972 basierte, einer Novemberausgabe, auf der Lena Forsén nackt abgebildet war. Als die Ingenieure der UCLA (Universität Kalifornien, Los Angeles) mit der Entwicklung der JPEG-Komprimierung begannen, verwendeten sie einen Ausschnitt aus diesem Mittelbild und trainierten ihren Algorithmus darauf. Sie testeten ihn. Sie testeten den JPEG-Algorithmus an diesem Playboy-Mittelbild. Dieses Bild war das einzige Bild, an dem sie ihren Algorithmus trainierten. Sie trainierten ihn also so, dass er nur für weiße, nackte, objektifizierte Frauen funktioniert. Das hat mich fasziniert, denn es ist ein klassisches Beispiel dafür, dass der Körper, die körperliche Identität, eine konkrete Voreingenommenheit in unsere digitalen Technologien einspeist, die dann verschleiert wird. Niemand ist sich bewusst, dass die Grundlage unserer JPEG-Algorithmen, auch auf MPEG, H.264 usw. übertragen und ebenso angewandt werden.
Die Algorithmen, die in unseren Bildverarbeitungstechnologien immer noch weit verbreitet sind, wenn nicht sogar am häufigsten verwendet werden, wurden also von Anfang an nur an weißen Menschen getestet. Bei farbigen Menschen wird das genauso funktionieren. Das Problem ist, dass unsere Augen, wie gesagt, die Art und Weise, wie wir unsere Augen benutzen, mehr Bilddaten, Kontraste und andere Arten von Werten in der Bildebene benötigen, um den Unterschied zwischen dunkleren Umgebungen zu erkennen, richtig?
Einfacher gesagt: Wenn Sie ein helles Bild betrachten, können Sie sehr leicht den Unterschied zwischen feinen Veränderungen innerhalb dieser Bildebene erkennen. Sie müssen nicht viele Daten oder Speicherplatz für das Bild bereitstellen, um zu sehen, wo eine kleine Linie in einer hellen Ebene liegt. Bei einer dunklen Ebene ist es für das Auge schwieriger, kleine Veränderungen zu erkennen. Daher müssen diese Linien klarer definiert sein, und um ein Bild mit mehr Definition zu speichern, werden mehr Bilddaten benötigt. Es ist nicht so, dass der JPEG-Algorithmus das Bild einer weißen Person im Vergleich zu dem einer frabigen Person nicht auf eine andere Art verarbeitet. Es geht darum, dass unsere Augen, wenn wir diese Art von Bildern wirklich richtig sehen wollen, nicht in der Lage sind, sie so gut zu sehen. Das hellere Bild gegenüber dem dunkleren Bild. Unsere Augen benötigen unterschiedliche Methoden, um wahrzunehmen. Das liegt daran, dass die menschliche Physiologie, unsere Augen nur auf diese Art und Weise funktionieren. Als ich also feststellte, dass wir immer nur einen sehr hellen Hautton berücksichtigt haben, um diese Art von Bildern zu verarbeiten, fand ich es faszinierend, dass dies eine so alltägliche rassistische Voreingenommenheit innerhalb unserer Bildverarbeitungstechnologien ist. Und dass das nicht nur ein Einzelfall ist, sondern dass es viele Arten von Komprimierungen, viele Arten von Bildverarbeitungstechnologien gibt, die solche grundlegenden Vorurteile nutzen.
Als zum Beispiel das iPhone die Gesichtserkennung einführte, wurde diese nur an kaukasischen Menschen getestet. Wenn also Menschen mit asiatischen Knochenstrukturen iPhones benutzen, sehen alle Asiaten gleich aus. So konnte eine asiatische Mutter das Telefon ihrer Tochter ganz einfach entsperren, weil sie das gleiche Gesicht hatten. Das liegt daran, dass wir unsere Bildverarbeitungstechnologie nur an einer Art von Gesicht getestet haben. Und wir müssen uns darüber im Klaren sein, dass wir, d. h. meistens immer noch weiße Menschen im Silicon Valley, Technologien für weiße Menschen entwickeln. Wir haben vergessen, die Technologien an anderen Menschen zu testen bzw. zu kalibrieren.
Lange Rede, kurzer Sinn, ich habe einfach angefangen, auf allen möglichen Ebenen Vorurteile zu erkennen, die man nur erkennt, wenn man fragt, wer diese Technologie für wen baut, für wen sie nicht gebaut wird, wer bei der Entwicklung dieser Technologie gefährdet wird, wer nicht berücksichtigt wurde? In meiner eigenen Arbeit habe ich angefangen, über die Damen der Bildkalibrierung nachzudenken. Und so begann ich, eine "Army of De/Calibration Test Cards" zu sammeln, wie ich es nenne. Und ich stellte mir vor, was passieren würde, wenn all diese Frauen, die ihr Gesicht der Kalibrierung von Bildverarbeitungs-Technologien geliehen haben, sich zusammensetzen und darüber sprechen würden, wie Bildverarbeitungs-Technologien heute funktionieren, für wen sie funktionieren und wer sie so gebaut hat, dass sie auf diese spezielle Art und Weise funktionieren, d.h. höchstwahrscheinlich kaukasische Leute im Silicon Valley, die sie so gebaut haben, dass sie für kaukasische Leute funktionieren, die eine Menge Geld ausgeben, um unsere iPhones zu kaufen, was auch immer. Und so bekam ich all diese Testkarten zur Bildkalibrierung, all diese schönen Frauen. Und ich dachte, was wäre, wenn ich sie einfach noch schöner machen würde? Ich würde sie durch eine Bildverschönerungs-App schicken, eine Selfie-Verschönerungs-App, und ich würde sie schön machen, nicht einmal, nicht zweimal, sondern hunderte Male. Was würde passieren, wenn ich das Bild erneut speichern würde, um zu sehen, wie diese Verschönerung immer mehr betont wird?
Das Ergebnis waren Monstrositäten, die ich die "De/Calibration Army" nenne. So wird nicht nur gezeigt, was die Kompression bewirkt, wenn Sie das Bild komprimieren und komprimieren und komprimieren, sondern auch die Übersättigung einer Verschönerungsnorm, eines Verschönerungsstandards ad absurdum geführt.
EN
Well, we use our body all the time, right? You cannot really think of digital interaction without thinking about also there being a body that is actually touching the hardware, that has some type of relation to the way you're steering, what you're doing, who you are within those tools and platforms. It's interesting to me that recently people, in the last decade basically, people have started to use the term "postdigital" as a term to indicate that we are past this hybrid state because they're so mixed that we don't differentiate between what is maybe digital and what is analog. Not just our languages, our visual languages, but also the ways we navigate through our outside spaces are completely mixed.
So when I walk through the train station, I walk with my physical body, but I'm using maybe five or ten different digital technologies, or I'm being used maybe because I'm tracked or whatever. I'm an identity that is a number that is not just there in a particular timestamp, but also has a particular amount of money, a particular subscription. And then I'm looking to my right and I'm being targeted by an advertisement and I am suddenly a particular online consumer, right? But my body is still analog. I don't see that big difference between what is analog and what is digital anymore. They're intertwined. But that being said, that also means that maybe the platform politics and the biases that are coming from a longer history of technologies, and those technologies, they may be just optical technologies.
How, for example, photographs that were printed in Playboy magazine, but that were just... All protocols are just being tested on white people. So for instance, the JPEG standard is tested on a white person. That is because we were not making technologies for people of color, because they would not buy those technologies yet. Like for instance, Kodak Gold is an old analog photography standard that was just made for white people. I've just started to realize that images of the body online are very often disconnected from who that person is. So you will be scraped or collected, your data, your digital information marker, whatever will be taken. But not just that, your photos on particular platforms will be taken and they'll get all of that information, gets into a huge database, whether it's for training algorithms or it's for looking at images and finding kind of particular aesthetics within those.
But what you start to see happening or what has happened over the last decades is that more and more images are becoming data constructs. What we see is that big tech is collecting a lot of data, but the data is no longer connected to the real world object, meaning maybe not the body or the person, but it becomes a data object from which information is inferred. Because that's what those algorithms do. They are no longer just saving the data as a real marker in society, they're saving it and using it as a data point from which they can infer then other information. What you see happening is also that people just lose their faces. I've been seeing that the image, whether that's an image of an artist, whether it's the face of a real person, the value of the real life reference is just slowly completely gone. You see that because artificial intelligence, we don't know the difference between a real and a non-real photo.
But also you see, like I've experienced myself, that the photo of my face has been used and used and copied and copied until people don't realize there was once a person, me, that actually has that face, wakes up with that face, and that exists in the real world. I think processes like inference, so using a lot of image data, putting that in a database and then using them just as data points to infer larger ways of operation, makes it so that the real and the digital get so mixed that we don't actually assign value to the differences, let's say. There is no longer a difference between what is real and what is synthetic data, because we are now creating algorithms that are trained on what might be already synthetic data sets. So the algorithms that have been trained on real world data, they're creating synthetic data sets to then train new algorithms on. And so what you get is this like, no longer a true reference somehow.
So the mix between what is artificial, what is real, what is digital, what is analog, those are so beyond mixing that I don't think there is so much of a difference anymore. In my own practice, I have experienced this mix on a very rudimentary level:
So I had an image of my face that I glitched. I put a break into the data that made it so kind of algorithmic that you could still clearly see it was the face of what was a human, but it was no longer considered to be owned by a human because it was somehow very often more considered as data. And so that image of my face started to move throughout the world and became part of hoodies and record sleeves and presentations about the economy. It was used by posters for big donating websites, etc. So my face just became the symbol of data, specifically maybe data that was against a normal flow. And that made me really think about what it means to lose the ownership or the image of your face within a general understanding of what the image is. Because if the image just becomes data at a certain point, then a lot of value or classic ways to allocate value to that image, traditional ways of reading and finding how to locate that within visual language, I'd say it's changing...deeply.
So I started to look at who else has lost their face. Where are earlier examples of people losing their face to technology? And I started to look into image calibration test cards. And that's where I made this one work, which was based on the Playboy centerfold of 1972, which was a November issue that had Lena Forsén naked in the middle. When engineers in UCLA (University of California, Los Angeles) started to build the JPEG compression, they used a cutout of that centerfold and they trained their algorithm on that. They tested it. They tested the JPEG algorithm on this Playboy centerfold image. That image was just the one image that they trained their algorithm on. And so they trained it to work just for white, naked, objectified lady. I was fascinated with that because that is just such a classic example of the body, corporeal identity, bringing a direct bias into our digital technologies that then becomes obfuscated. No one is aware that the basis of our JPEG that is then ported towards MPEG, etc., H.264 algorithms.
So the algorithms that are still widely, if not the most used in our image processing technologies are all tested from the very first start on just white people. They will work the same on people of color. The problem is that our eyes, again, so the ways we make sense via our eyes, we might need data, more image data, contrasts and other types of value in that image plane to see the difference between darker environments, right?
Maybe I need to make it a little bit more simple: When you look at a light image, you will see very easily the difference between fine changes within that plane of the image. You don't need to allocate a lot of data, space to save the image away to still be able to see where a little line exists within a light plane. If you have a dark plane, your eye has a harder time to recognize small changes. And so what you will need is you will need those lines to be more defined and to write a way to save an image with more definition takes more image data. It's not that the JPEG algorithm doesn't write away the image of a white versus a person of color in a different way. It is that our eyes, if we really want to be able to see those types of images proper, our eyes will not be able to see them as well. The lighter image versus the darker image. Our eyes require different ways of writing away. That is because the human physiology, our eyes work only in that type of way. So when I noticed that we've only ever taken into account a very light skin tone to write those types of images away, I found it fascinating that that is such commonplace racist bias within our image processing technologies. And that that is not just a one-off, that there is many types of compressions, many types of image processing technologies that use such basic bias.
Take for example, when the iPhone was implementing facial recognition, they were testing that just on Caucasian people. And so when people with Asian bone structures would use iPhones, all Asian people would look the same. And so an Asian mother could unlock the phone of their daughter really easily because they were of the same face. That is because we have trained our image processing technology, or we have just tested it on one type of. And we have to understand that we, we meaning most often still white people in Silicon Valley, are building technologies for white people. And we will forget to test it very often on other people.
Long story short, I just started to recognize on all types of levels, biases that you only recognize when you ask who is building this technology for who, who are they not building this technology for, who gets compromised within the building of this technology, who wasn't considered? What I did specifically in my own work is that I started to think through the ladies of image calibration. And so I started to collect what I call an "Army of Image De/Calibration Test Cards". And I imagined that what would happen if all of these women that have borrowed their face to the calibration of image processing technologies, what would happen if they would sit together and talk through how image processing technologies now work for who do they work and who has built them to work in those specific ways, meaning most possibly Caucasian people in Silicon Valley that built them to work for Caucasian people that will spend a lot of money to buy our iPhones, whatever. And from that, I got all those image calibration test cards, all these beautiful ladies. And I thought, what if I would just make them more beautiful? I would put them through an image beautifying app, a selfie beautifying app, and I would make them beautiful, not once, not twice, but hundreds of times. What would happen if I would resave that image and see how this beautification gets more and more emphasized?
What I got were these kind of monstrosities and I call them the "De/Calibration Army". And what you will see is not just what compression does when you compress and compress and compress the image, but also the kind of oversaturation of a beautification norm, beautification standards.
