The Cleaners — Im Schatten der Netzwelt

The Clea­ners ist ein Doku­men­tar­film aus dem Jahr 2018. Er erzählt von Con­tent-Mode­ra­to­ren auf den Phil­ip­pi­nen, die im Auf­trag der gro­ßen sozia­len Netz­wer­ke bestimm­te Inhal­te löschen. Sie sich­ten für Face­book, You­tube und Twit­ter Posts, Fotos und Vide­os. Der Film erzählt von den Belas­tun­gen ihrer Arbeit. Im Sekun­den­takt ent­schei­den sie über das Löschen oder Veröffentlichen.
Die Kri­te­ri­en und Vor­ga­ben die­ser Arbeit gehö­ren zu den am bes­ten geschütz­ten Geheim­nis­sen. Par­al­lel zu den Sto­rys der fünf Frau­en und Män­ner kom­men die glo­ba­len Aus­wir­kun­gen der Online-Zen­sur zur Spra­che. Der Zuschau­er bekommt eine Idee davon, wie Fake News ent­ste­hen, alter­na­ti­ve Wahr­hei­ten gene­riert wer­den und gesell­schaft­li­che Span­nun­gen durch die sozia­len Medi­en ver­stärkt werden.

Der 90minütige Film wur­de mit Kapi­tel­mar­kern auf­be­rei­tet. Die drei­zehn Kapi­tel sind mit­hil­fe von Lese­zei­chen anzu­steu­ern. Inhalt­li­che Impul­se, Tran­skrip­te und Auf­ga­ben ermög­li­chen die kri­ti­sche Aus­ein­an­der­set­zung mit den ein­zel­nen Kapi­teln. So enste­hen im Kern Optio­nen für die Refle­xi­on der Bedeu­tung der sozia­len Medi­en für das demo­kra­ti­sche Gemein­we­sen und für die Facet­ten des eige­nen Menschenbildes.

Kern­kom­pe­tenz: Ethi­sche Ent­schei­dungs­si­tua­tio­nen im indi­vi­du­el­len und gesell­schaft­li­chen Leben wahr­neh­men, die christ­li­che Grund­le­gung von Wer­ten und Nor­men ver­ste­hen und begrün­det han­deln können.

Jahr­gang: ab 11. Jahrgangsstufe

Arbeits­for­men: Kahoot!, Kol­la­bo­ra­ti­ve Text­ar­beit, Mindmapping

Hin­ter­grund­in­for­ma­tio­nen:

  • http://​fsk16​.bpb​.de/​m​e​d​i​a​t​h​e​k​/​2​7​3​1​9​9​/​t​h​e​-​c​l​e​a​n​ers
  • Der digi­ta­le Müll­berg von Mani­la: https://​www​.br​.de/​p​u​l​s​/​t​h​e​m​e​n​/​p​o​p​k​u​l​t​u​r​/​i​n​t​e​r​v​i​e​w​-​m​a​c​h​e​r​-​t​h​e​-​c​l​e​a​n​e​r​s​-​1​0​0​.​h​tml
  • Die Opfer des Bil­der­ge­met­zels: https://​www​.zeit​.de/​k​u​l​t​u​r​/​f​i​l​m​/​2​018 – 05/­the-clea­ners-doku­men­ta­ti­on-face­book
  • Lanier: https://​www​.swr​.de/​s​w​r​2​/​l​i​t​e​r​a​t​u​r​/​j​a​r​o​n​-​l​a​n​i​e​r​-​w​a​r​u​m​-​d​u​-​d​e​i​n​e​-​s​o​c​i​a​l​-​m​e​d​i​a​-​a​c​c​o​u​n​t​s​-​s​o​f​o​r​t​-​l​o​e​s​c​h​e​n​-​m​u​s​s​t​-​k​r​i​t​i​k​,​a​r​t​i​c​l​e​-​s​w​r​-​1​1​3​5​0​.​h​tml

Phase 1: Vorspann — Einstieg (00:00:00 — 00:04:17)

Arbeit mit den Bildern

Mehr als 3 Mil­li­ar­den Men­schen sind durch sozia­le Netz­wer­ke ver­bun­den. Jede Minu­te wer­den 500 Stun­den Video auf You­Tube hoch­ge­la­den, 450.000 Tweets auf Twit­ter und 2,5 Mil­lio­nen Posts auf Face­book. Nicht alles, was hoch­ge­la­den wird, bleibt.

  1. Beschrei­be die Stim­mung in der Stadt und in den Büros.
  2. Recher­chie­re zur sozia­len, poli­ti­schen und reli­giö­sen Situa­ti­on auf den Phil­ip­pi­nen und in Mani­la. Sam­melt die Ergeb­nis­se in einem gemein­sa­men Doku­ment, z.B. mit­hil­fe eines Blogs oder eines Ether­pads.
  3. Deu­te die Dun­kel­heit der Bilder.

Arbeit mit Kom­men­ta­ren und Texten

Ohne uns wäre das Inter­net ein ein­zi­ges Cha­os. Wir löschen Fotos, Vide­os und Tex­te, die gegen die Regeln der sozia­len Netz­wer­ke ver­sto­ßen. Hier in Mani­la prü­fen wir vor allem Inhal­te aus Euro­pa und den USA. Es gibt klei­ne­re Lösch­zen­tren in ande­ren Län­dern, aber wir sind das Grö­ße von allen. Wir sind tau­sen­de Arbei­ter hier. Wenn die Fir­ma her­aus­fin­det, dass ich mit euch spre­che, bekom­me ich extre­me Schwie­rig­kei­ten. Der Kun­de droht damit, den gesam­ten Auf­trag abzuziehen.”

Ich muss anonym blei­ben, weil wir einen Ver­trag unter­schrie­ben haben. Wir dür­fen nicht preis­ge­ben, für wen wir arbei­ten. War­um ich mit euch spre­che: Die Welt soll wis­sen, dass es uns gibt. Wir sind es, die die sozia­len Netz­wer­ke über­prü­fen. Wir tun unser Bes­tes, um die Platt­form sicher für alle zu machen.”

Löschen — Igno­rie­ren — Ignorieren

Wir ste­hen dafür, alle mit­ein­an­der zu ver­bin­den. Für eine glo­ba­le Gemein­schaft und dass jeder Mensch alles mit jedem tei­len kann.”
Mark Zuckerberg

Löschen — Löschen

Mark Zucker­berg bestimmt gewis­ser­ma­ßen über die Titel­sei­ten aller Zeitungen.”

Sozia­le Netz­wer­ke brau­chen und ver­lan­gen die vol­le Kon­trol­le über das, was geschieht.”

Wäre Face­book ein Land, dann wäre es das bevöl­ke­rungs­reichs­te der Welt. Und wenn es als Zen­sor agiert, ist es so mäch­tig wie ein Staat.”

Igno­rie­ren — Ignorieren

Ohne die sozia­len Netz­wer­ke könn­te ich mir kein Gehör ver­schaf­fen. Ich wäre ver­mut­lich gar nicht hier.”
Donald Trump

Löschen — Löschen

Es sind zehn­tau­sen­de, die die­se Arbeit machen. Alles geschieht im Ver­bor­ge­nen. Aus­ge­führt von unbe­kann­ten Leu­ten, die weit­rei­chen­de inhalt­li­che Ent­schei­dun­gen treffen.”

Löschen — Igno­rie­ren — Löschen — Löschen — Igno­rie­ren — Igno­rie­ren — Löschen — Löschen

  1. Gib die unter­schied­li­chen Posi­tio­nen zur Bedeu­tung der sozia­len Netz­wer­ke mit eige­nen Wor­ten wieder.
  2. For­mu­lie­re ein eige­nes State­ment und tau­sche dich mit ande­ren dazu aus.
  3. For­mu­lie­re in The­sen, was sich hin­ter dem Titel des Fil­mes ver­ber­gen könnte.
  4. Prüft euer Vor­wis­sen, mit­hil­fe die­ser Kahoot!.

Phase 2: Das Selbstverständnis der Content-Moderatoren (00:04:17 — 00:06:17)

Der Abschnitt spricht über die Moti­va­ti­on der Con­tent-Mode­ra­to­ren. An ande­ren Stel­len fin­den sich Aus­sa­gen zur Für­sor­ge für die Fami­lie oder die her­aus­for­dern­den Job- und Karriereaussichten.
00:16:43 — 00:17:50

  1. Gib die Momen­te der Moti­va­ti­on mit eige­nen Wor­ten wieder.
  2. Beur­tei­le die Plau­si­bi­li­tät der ver­wen­de­ten Metaphern.
  3. Dis­ku­tiert ihre Ambivalenz..

Phase 3: Die Aufgaben der Content-Moderatoren (00:06:18 — 00:08:52)

Die Sequenz beschreibt in gro­ben Zügen den Mode­ra­ti­ons­auf­trag als Ver­stoß gegen die Richt­li­ni­en: Löschen des Con­tents von Kin­des­miss­brauch, Gewalt und Ter­ror. Die Dif­fi­zi­li­tät die­ses Auf­trags wird im anschlie­ßen­den Kapi­tel deutlich.


Phase 4: Die Suchergebnisse von Google (00:08:52 — 00:11:44)

Das Kapi­tel zeigt die Her­aus­for­de­run­gen, wie sie sich den Unter­neh­men wie Goog­le oder Face­book dar­stel­len und wel­che ethi­schen Richt­li­ni­en die Unter­neh­men entwickeln.

  1. Stel­le das Dilem­ma Nico­le Wongs mit eige­nen Wor­ten dar.
  2. Erläu­te­re die Lösung, die Goog­le für das Unter­neh­men entwickelte.
  3. Beur­tei­le die­se Stra­te­gie für ein­zel­ne Per­so­nen und das Zusam­men­le­ben von Men­schen in unter­schied­li­chen Staatsformen.
  4. Recher­chie­re die Richt­li­ni­en für die Nut­zung von You­Tube, Face­book und Twit­ter. Insta­gram und Whats­app gehö­ren zu Face­book. Erwei­tert euer gemein­sa­mes Online-Dokument.
  5. Dis­ku­tiert die Durch­set­zungs­fä­hig­keit der Nut­zungs­be­din­gun­gen sozia­ler Netzwerke.

Phase 5: Über den Umgang mit sexuellem Content (00:17:50 — 00:24:22)

Das Bei­spiel zeigt die Schwie­rig­kei­ten, die bei der Abgren­zung zwi­schen Por­no­gra­fie und Kunst auf­tre­ten kön­nen. Dar­über hin­aus wird deut­lich, wie der Mode­ra­ti­ons­pro­zess über die Frei­heit von Kunst und die poli­ti­scher Mei­nungs­äu­ße­rung entscheidet.

  1. Erläu­te­re Zusam­men­hän­ge zwi­schen Sexu­al­mo­ral und Religion.
  2. Erklä­re die Beein­träch­ti­gung von Kunst durch den Moderationsprozess.
  3. For­mu­liert eige­ne Posi­tio­nen für den Mode­ra­ti­ons­vor­gang von sexu­el­lem Content.

Phase 6: Über Darstellungen von Gewalt und Terror in den sozialen Netzwerken (00:24:23 — 00:35:01)

  1. Erläu­te­re die Ver­fah­ren, mit deren Hil­fe die Mode­ra­to­ren ter­ro­ris­ti­sche Grup­pen iden­ti­fi­zie­ren und ihren Inhalt entscheiden.
  2. Erläu­te­re die Bedeu­tung des Kon­tex­tes für eine Ein­ord­nung einer Grup­pe als „ter­ro­ris­tisch”.
  3. Dis­ku­tiert die Fra­ge, inwie­fern ein­zel­ne Per­so­nen in der Lage sind, ein Foto, Tex­te oder Vide­os his­to­risch, poli­tisch oder reli­gi­ös ange­mes­sen zuzu­ord­nen und über deren Löschung zu entscheiden.

Phase 7: So entscheiden CM

Die fol­gen­de Bei­spie­le ver­tie­fen anschau­lich die Her­aus­for­de­run­gen, vor denen Con­tent-Mode­ra­to­ren ste­hen. Das letz­te Bei­spiel zeigt die Krea­ti­vi­tät, mit der man Löschun­gen vor­ge­hen kann.

Das vietnamesische Mädchen (00:35:03 ‑00:35:57)

Erdogan und Twitter (00:35:58 — 00:36:17)

Der Abu-Ghuraib-Folterskandal (00:36:18 — 00:36:49)

Das ertrunkene Kind und die Geschichte des Fotos (00:36:50 — 00:41:11)

  1. Stellt das Lösch­ob­jekt grup­pen­tei­lig vor, beschreibt die Über­le­gun­gen der Con­tent-Mode­ra­to­ren und ihre Entscheidung.
  2. Recher­chiert Hin­ter­grün­de zu den Löschobjekten.
  3. Beur­teilt die Ent­schei­dun­gen der Moderatoren.

Phase 8: Geoblocking und politische Einflussnahme (00:50:56 — 00:59:50)

Sena­tor Mar­co Rubio befragt Colin Stretch, Face­book, bezüg­lich poli­ti­schen Contents.
Yaman Akde­miz, Pro­fes­sor für Recht an der Bil­gi Uni­ver­si­tät Istan­bul, und David Kaye, Un-Son­der­be­auf­trag­ter für Mei­nungs­frei­heit kommentieren.

Rubio: Es gibt Berich­te, nach denen Face­book eine Soft­ware ent­wi­ckelt hat, um Pos­tings in bestimm­ten geo­gra­fi­schen Gebie­ten zu unter­drü­cken. Ist das wahr? Hat Face­book Soft­ware ent­wi­ckelt, um Pos­tings in bestimm­ten Gebie­ten zu unterdrücken?

Stretch: Es gibt Fäl­le, in den uns Inhal­te von aus­län­di­schen Regie­run­gen gemel­det wur­den, die nach den Geset­zen jener Regie­run­gen ille­gal sind. Daher set­zen wir „Geo-Blo­cking” oder „IP-Blo­cking” ein, damit die­se Inhal­te in die­sen Län­dern nicht sicht­bar sind, sie aber weiterhin …

Rubio: Wenn also in einem Land Kri­tik an der Regie­rung ille­gal ist, dann kön­nen Sie die­se Kri­tik unter­drü­cken und so in die­sem Land Ein­fluss ausüben?

Stretch: In der vor­wie­gen­den Mehr­zahl der Fäl­le, in denen uns orts­ab­hän­gi­ger ille­ga­ler Con­tent gemel­det wur­de, ging es nicht um poli­ti­sche Meinungsäußerung.

Kom­men­tar Akde­niz: Face­book ent­fernt alles aus sei­nem sozia­len Netz­werk, sobald tür­ki­sche Behör­den sie dazu auf­for­dern. In den meis­ten Fäl­len geht es um poli­ti­sche Mei­nungs­äu­ße­run­gen oder Inhal­te poli­ti­scher Natur. Hier sind eini­ge Bei­spie­le, was alles blo­ckiert oder gelöscht wur­de: Fotos von einer bren­nen­den Tür­kei-Flag­ge, eine Kur­di­stan-Kar­te, Kar­ri­ka­tu­ren, die sich über Erdo­gan lus­tig machen. Egal ob You­Tube, Face­book oder Twit­ter: Die Tür­kei ist das Land mit den meis­ten Sper­run­gen welt­weit. Die Tür­kei war schon immer ein Land der Zen­sur. Weil die tra­di­tio­nel­lern Medi­en mehr und mehr von der Regie­rung kon­trol­liert wer­den, haben sich vie­le Tür­ken den sozia­len Netz­wer­ken zuge­wandt. Aber jetzt wer­den sie von den tür­ki­schen Behör­den bedrängt, Inhal­te zu ent­fer­nen oder zu blo­ckie­ren. Die Tech-Unter­neh­men haben ange­fan­gen, Abspra­chen mit den Regie­rungs­be­hör­den zu tref­fen. Kei­ne die­ser Platt­for­men will gänz­lich von der Tür­kei gesperrt wer­de, weil sie dann Nut­zer und Gewin­ne ver­lie­ren würden.

Dele­te — Dele­te — Delete

Kom­men­tar Kaye: Das sind Abspra­chen in Hin­ter­zim­mern von denen die Öffent­lich­keit kaum etwas erfährt. Wenn Regie­run­gen Unter­neh­men über inof­fi­zi­el­le Kanä­le kon­tak­tie­ren und sie auf­for­dern: ‚Wir möch­ten, dass ihr die­se oder jene Mei­nung auf eurer Platt­form unter­bin­det’, dann wer­den die Unter­neh­men zuneh­mend gedrängt, genau sol­che Ent­schei­dun­gen von sich aus zu tref­fen. Sie müs­sen dann ent­schei­den, wie sie das Gesetz aus­le­gen. So ent­schei­den letzt­lich die Unter­neh­men, was recht­mä­ßig ist und was nicht.

  1. Erläu­te­re Stra­te­gie und Hin­ter­grün­de von „Geo-Blo­cking” bei Face­book und YouTube.
  2. Beur­tei­le die Ansät­ze im Kon­text der Kom­men­ta­re von Yaman Akde­miz und David Kaynes.
  3. For­mu­lie­re eine eige­ne Position.
  4. Dis­ku­tiert den poli­ti­schen Ein­fluss der sozia­len Medi­en auf gesamt­deut­scher und regio­na­ler Ebe­ne an kon­kre­ten Bei­spie­len und Platt­for­men, z.B. im Wahl­kampf, bei Kli­ma­schutz oder Straßenbau.

Phase 9: Über die Radikalisierung der Gesellschaft (00:59:51 — 01:07:11)

Die Sze­ne zeigt den ame­ri­ka­ni­schen Akti­vis­ten Sabo und stellt Zusam­men­hän­ge zwi­schen Auf­merk­sam­keit und Empö­rung in den sozia­len Netz­wer­ken dar. Die sozia­len Medi­en sind für gesell­schaft­li­che Span­nun­gen und Spal­tun­gen nicht ver­ant­wort­lich, ver­schär­fen aber die Kon­flik­te und Entladungen.

  1. Recher­chie­re Unter­schie­de im Recht auf Mei­nungs­frei­heit zwi­schen den USA und Deutschland.
  2. Fomu­lie­re eine eige­ne Position.

Phase 10: Die Beteiligung von Facebook am Genozid an den Rohingya (01:07:11 — 01:12:55)

Die Roh­in­gyas leben staa­ten­los in Myan­mar. Die meis­ten flo­hen 2017 vor den Repres­sio­nen nach Ban­gla­desch. Offi­zi­el­ler Anlass für die Über­grif­fe der Armee auf die Bevöl­ke­rungs­grup­pe waren Über­fäl­le jun­ger Roh­in­gya-Rebel­len auf Poli­zei­sta­tio­nen. Über Face­book wur­den Vor­ur­tei­le und Kli­schees geteilt. Die Stim­mung in der Bevöl­ke­rung heiz­te sich auf. Es kam zu Über­grif­fen, Ver­ge­wal­ti­gun­gen und Mord. Die Ver­leum­dun­gen und Auf­ru­fe zur Gewalt wur­den von den Con­tent-Mode­ra­to­ren nicht gelöscht.
https://​www​.faz​.net/​a​k​t​u​e​l​l​/​p​o​l​i​t​i​k​/​a​u​s​l​a​n​d​/​u​n​-​b​e​r​i​c​h​t​-​w​i​r​f​t​-​m​y​a​n​m​a​r​-​v​o​e​l​k​e​r​m​o​r​d​-​v​o​r​-​1​5​7​5​7​7​6​2​.​h​tml

  1. Klä­re den Begriff „Geno­zid”.
  2. Recher­chie­re die Bedeu­tung von Face­book für die Medi­en­welt Myan­mars. Inwie­fern gibt es glaub­wür­di­ge Alternativen?
  3. Beur­tei­le die Bedeu­tung von Viel­falt in der Medienwelt.

Phase 11: Über die psychischen Belastungen für die Moderatoren (01:12:56 — 01:20:12)

Die Sequenz zeigt die psy­chi­schen Belas­tun­gen der Arbeit für die Con­tent-Mode­ra­to­ren auf. Eini­ge kön­nen dem Druck nur nur Selbst­tö­tung ent­flie­hen. Die Fir­men­lei­tun­gen igno­rie­ren die Vor­fäl­le. Die Ohn­macht unter den Kol­le­gin­nen und Kol­le­gen ist groß.
Zum Ende der Dreh­ar­bei­ten hat­ten alle Inter­view­part­ner ihren Job aufgegeben.


Phase 12: Die Bedeutung von Opfern (01:20:13 — 01:24:46)

Wenn Dir etwas wich­tig ist im Leben, musst Du bereit sein, einen Teil von Dir zu opfern. Ich opfe­re mich auf, ja. Die Auf­op­fe­rung hört nie auf. Sie wird immer Teil mei­nes Lebens sein. Mei­ne Auf­ga­be ist es, sünd­haf­ten Bil­dern zuvor­zu­kom­men. Ich bin die, die vor­beugt. Wir müs­sen ver­hin­dern, dass sich die Sün­de in den sozia­len Net­zen ausbreitet.
-
Ich bin nicht mehr diessel­be. Es ist wie ein Virus in mir. Er frisst sich lang­sam durch mein Gehirn und mein Kör­per reagiert dar­auf. Ich arbei­te tag­täg­lich als Con­tent-Mode­ra­to­rin, doch jetzt kün­di­ge ich. Ich muss damit auf­hö­ren. Hier läuft was schief.

  1. Sam­melt die ver­schie­de­nen Vor­stel­lun­gen von „Opfer” in eurer Lerngruppe.
  2. Erläu­te­re das Ver­ständ­nis der Content-Moderatorin.
  3. Recher­chiert zur phil­ip­pi­ni­schen Tra­di­ti­on der Selbst­kreu­zi­gun­gen.
  4. Dis­ku­tiert die Ver­gleich­bar­keit zwi­schen den Moti­ven der Kreu­zi­gun­gen und den Aus­sa­gen der Content-Moderatorin.

Phase 13: Meta-Reflexion

Irgend­wann habe ich mich gefragt: War­um mache ich das eigent­lich? Nur damit die Men­schen glau­ben, es ist sicher, online zu gehen? Dabei sind wir selbst in unse­rem Job gar nicht sicher. Wir ver­skla­ven uns selbst. Wir soll­ten nicht so tun als sei es in Ord­nung. Das ist es nicht. Wir soll­ten uns der Rea­li­tät stellen.
Content-Moderatorin

Man braucht Mut, um die Hoff­nung der Angst vor­zu­zie­hen. Um zu sagen, dass wir etwas Bes­se­res schaf­fen kön­nen, als es je gab. Man muss opti­mis­tisch sein, wenn man die Welt ver­än­dern will. Wir tun es mit jeder wei­te­ren Ver­bin­dung. Mit jeder wei­te­ren Inno­va­ti­on. Tag für Tag für Tag. Und dar­um den­ke ich, dass die Arbeit, die wir gemein­sam leis­ten, heu­te wich­ti­ger ist denn je.
Mark Zuckerberg

  1. Gib die bei­den Posi­tio­nen zum Ende des Fil­mes mit eige­nen Wor­ten wieder.
  2. Sam­melt in Pro- und Con­tra-Lis­ten die Argu­men­te für und gegen sozia­le Netz­wer­ke sprechen.
  3. Beur­teilt eure Ergeb­nis­se im Hori­zont der Con­tent-Mode­ra­to­ren und über­ar­bei­tet die Lis­ten, ergänzt oder kom­men­tiert sie.
  4. Tauscht euch in der Lern­grup­pe dar­über aus, ob und inwie­fern sich durch die Aus­ein­an­der­set­zung mit dem Film die Wahr­neh­mung und Refle­xi­on der sozia­len Medi­en ver­än­dert hat.
Print Friendly, PDF & Email
Andreas Ziemer
Letz­te Arti­kel von Andre­as Zie­mer (Alle anzei­gen)

3 Gedanken zu „The Cleaners — Im Schatten der Netzwelt“

Schreibe einen Kommentar