Discussing Postcolonial Computing

From 33C3_Public_Wiki
Jump to: navigation, search
Description From artificial intolerance to decolonizing our programming: We want to discuss who is speaking? who is writing the code and what do we have to do about it?

Ever heard of „My friend's not a gorilla“ and google photos? we gonna provide some twisted examples…

Website(s)
Type Discussion
Kids session No
Keyword(s) social, political, software, art, coding
Tags bias, ethics, code, programming, race, software, global south
Person organizing Al-Badri Nelles
Language en - English
en - English
Other sessions...

refresh

Starts at 2016/12/28 17:00
Ends at 2016/12/28 18:00
Duration 60 minutes
Location Hall C.3

(english version below - we will discuss in either German and/or English, but other language speaker are also welcome - we will find a way to communicate)

Wir werden einen kurzen Input für diese session vorbereiten und dann gerne hauptsächlich mit den Teilnehmer*innen diskutieren und wenn wir es schaffen, vielleicht auch schon etwas über Strategien der Dekolonisierung und einem ethischen und bewussten Umgang mit Technologie sprechen. Genauer: Unser Input dreht sich vor allem um die sog. bias in Algorithmen und Code hinsichtlich Race und Gender. Bias ist häufig eine unbewusste und implizite Form des Rassismus oder Sexismus. Außerdem werden wir etwas über die Repräsentation in IT berichten, die amerikanische NSF (National Science Foundation) hat dieses Jahr eine aufschlussreiche Analyse dazu rausgegeben (72% weiße Männer im Gegensatz zu 4% Afroamerikanern usw.). Nur ca 11-15% (Jennifer Rode 2015) der Programmierer*innen und Ingenieure sind „Minderheiten“. Das ist nicht repräsentativ und wird problematisch, weil wir am besten aus unser eigenen Erfahrung designen. Außerdem ist Technologie nicht neutral und Human-Computer-Interaction (HCI) erhält häufig Ungerechtigkeit und Diskriminierung. Zusätzlich möchten wir konkrete Beispiele zeigen und mit Euch besprechen wie z.B. Google Fotos, die vergangenes Jahr unter „My friend's not a gorilla“ zu recht aufgebracht diskutiert wurden, weil people of color als Affen oder Gorillas getaggt wurden. Daraufhin rechtfertigte googles Yonatan Zunger, dass Schuld daran der Algorhytmus sei… Oder auch das Beispiel einer Nikon Kamera Version, die asiatische Nutzer*innen immer wieder gefragt hatte „hat jemand gezwinkert?“ Weil die Kamera (!) Nicht zwischen asiatischen Augen und geschlossenem Auge unterscheiden konnte… Man könnte auch mit diesem Wikiformular beginnen, denn leider war es nicht (einfach) möglich mehrere Sprachen für diesen Workshop auszuwählen…!

Wir fragen uns also, wer spricht? wer schreibt den Code? und was müssen wir tun und wissen um bewusster handeln zu können?


short description EN:

we will provide a short input on some issues touching on racial and gender problems in algorithms, code or representation in IT. We also would like to highlight a few examples such as „My friend's not a gorilla“ where google photos tagged people of color as „ape“ or „gorilla“ and later on said „it was the algorithm!“ or where Nikon CoolpixS630, repeatedly asked an Asian user "Did someone blink?”because „the camera“ could not distinguish between Asian “monolid” eye and a closed Western “double eyelid”…

„Elsewhere in the CHI literature Jennifer Rode has argued the HCI community has wanted to treat technology as value neutral and yet this is not the case. Therefore, it is reasonable to assert that similarly to scholarly arguments about the construction of gendered and politicized artifacts, then technologies can have race, and technology creators in turn can perpetuate racial bias, even if inadvertently or unintentionally.“

We want to discuss who is speaking? who is writing the code and what do we have to do about it?