“Training Humans”, conceived by Kate Crawford, AI researcher and professor, and Trevor Paglen, artist and researcher, is the first major photography exhibition devoted to training images: the collections of photos used by scientists to train artificial intelligence (AI) systems in how to “see” and categorize the world.
In this exhibition, Crawford and Paglen reveal the evolution of training image sets from the 1960s to today. As stated by Trevor Paglen, “when we first started conceptualizing this exhibition over two years ago, we wanted to tell a story about the history of images used to ‘recognize’ humans in computer vision and AI systems. We weren’t interested in either the hyped, marketing version of AI nor the tales of dystopian robot futures.” Kate Crawford observed, “We wanted to engage with the materiality of AI, and to take those everyday images seriously as a part of a rapidly evolving machinic visual culture. That required us to open up the black boxes and look at how these ‘engines of seeing’ currently operate”.
“Training Humans Symposium” took place on Saturday 26 October at 2.30 pm, engaging with the exhibition. The event involved Prof. Stephanie Dick (University of Pennsylvania), Prof. Eden Medina (MIT), Prof. Jacob Gaboury (University of California, Berkeley), along with the project curators Kate Crawford and Trevor Paglen. Putting the ideas in the exhibit in conversation with their path-breaking work, the speakers examined questions such as: where are the boundaries between science, history, politics, prejudice and ideology in artificial intelligence? And who has the power to build and benefit from these systems?
“Training Humans” explores two fundamental issues in particular: how humans are represented, interpreted and codified through training datasets, and how technological systems harvest, label and use this material. As the classifications of humans by AI systems becomes more invasive and complex, their biases and politics become apparent. Within computer vision and AI systems, forms of measurement easily – but surreptitiously – turn into moral judgments.
Of import to Crawford and Paglen are classificatory taxonomies related to human affect and emotions. Based on the heavily criticized theories of psychologist Paul Ekman, who claimed that the breadth of the human feeling could be boiled down to six universal emotions, AI systems are now measuring people’s facial expressions to assess everything from mental health, whether someone should be hired, to whether a person is going to commit a crime. By looking at the images in this collection, and see how people’s personal photographs have been labeled, raises two essential questions: where are the boundaries between science, history, politics, prejudice and ideology in artificial intelligence? And who has the power to build and benefit from these systems?
As underlined by Crawford, “There is a stark power asymmetry at the heart of these tools. What we hope is that “Training Humans” gives us at least a moment to start to look back at these systems, and understand, in a more forensic way, how they see and categorize us.”
The exhibition will be accompanied by an illustrated publication in the Quaderni series, published by Fondazione Prada, including a conversation between Kate Crawford and Trevor Paglen on the complex topics addressed in their project.
English below
“Training Humans”, concepita da Kate Crawford, professoressa e studiosa nell’ambito dell’intelligenza artificiale, e Trevor Paglen, artista e ricercatore, è la prima grande mostra fotografica dedicata a immagini di training: repertori di fotografie utilizzate dagli scienziati per insegnare ai sistemi di intelligenza artificiale (IA) come “vedere” e classificare il mondo.
In questa mostra Crawford e Paglen esplorano l’evoluzione delle collezioni di immagini di training dagli anni Sessanta a oggi. Come afferma Trevor Paglen, “quando abbiamo iniziato a elaborare l’idea della mostra, oltre due anni fa, volevamo raccontare la storia delle immagini utilizzate per il ‘riconoscimento’ di esseri umani nel settore della computer vision e dei sistemi di intelligenza artificiale. Non ci interessavano né la versione inflazionata dell’IA applicata al marketing né le favole distopiche sui robot del futuro”. Kate Crawford aggiunge, “volevamo trattare direttamente le immagini che formano i sistemi di intelligenza artificiale e prenderle sul serio come parte di una cultura in rapida evoluzione. Questi materiali visivi rappresentano la nuova fotografia vernacolare che guida la visione artificiale. Per verificare il loro funzionamento, abbiamo analizzato centinaia di set di immagini di training per capire i processi interni di questi ‘motori del vedere’”.
Sabato 26 ottobre alle ore 14.30, nell’ambito della mostra, si è svolto “Training Humans Symposium”. L’evento ha coinvolto i professori Stephanie Dick (Università della Pennsylvania), Eden Medina (MIT), Jacob Gaboury (Università della California, Berkeley) e i curatori del progetto Kate Crawford e Trevor Paglen. Analizzando i concetti affrontati nella mostra in relazione con i loro studi innovativi, i relatori si sono confrontati con due interrogativi principali: quali sono i confini tra scienza, storia, politica, pregiudizio e ideologia nell’intelligenza artificiale? Chi ha il potere di costruire questi sistemi e di trarne beneficio?
“Training Humans” esplora due tematiche chiave: la rappresentazione, l’interpretazione e la codificazione degli esseri umani attraverso dataset di training e le modalità con cui i sistemi tecnologici raccolgono, etichettano e utilizzano questi materiali. Quando la classificazione di esseri umani attraverso l’intelligenza artificiale diventa più invasiva e complessa, i pregiudizi e le implicazioni politiche presenti al loro interno appaiono più evidenti. Nella computer vision e nei sistemi di IA i criteri di misurazione si trasformano facilmente, ma in modo nascosto, in strumenti di giudizio morale.
Un altro centro d’interesse per Crawford e Paglen sono i sistemi di classificazione basati sugli affetti e le emozioni e supportati dalle teorie molto criticate dello psicologo Paul Ekman, secondo il quale la varietà dei sentimenti umani può essere ridotta a sei stati emotivi universali. Queste tecnologie d’intelligenza artificiale misurano le espressioni facciali delle persone per valutare una molteplicità di fattori: la loro salute mentale, la loro affidabilità come possibili nuovi assunti o la loro tendenza a commettere atti criminali. Esaminando le immagini di questa raccolta e i criteri con cui le fotografie personali sono state classificate, ci si confronta con due interrogativi essenziali: quali sono i confini tra scienza, storia, politica, pregiudizio e ideologia nell’intelligenza artificiale? Chi ha il potere di costruire questi sistemi e di trarne benefici? Come sottolinea Crawford, ‘’un’asimmetria di potere è propria di questi strumenti. La nostra speranza è che “Training Humans” segni il punto di partenza per iniziare a ripensare questi sistemi e per comprendere in modo scientifico come ci vedono e ci classificano”.
La mostra sarà accompagnata da una pubblicazione illustrata della serie Quaderni, pubblicata da Fondazione Prada, che include una conversazione tra Kate Crawford e Trevor Paglen sui complessi temi affrontati nel loro progetto.
Kate Crawford |Trevor Paglen: Training Humans
12 Sep 2019 – 24 Feb 2020
Fondazione Prada
largo Isarco, 2. 20139 Milano
T +39 02 56 66 26 34
press@fondazioneprada.org