Stiftung|
10.10.2016 - 15:15Antiterror-Algorithmus bedroht die freie Gesellschaft
Der Algorithmus eGlyph wurde entwickelt, um das Internet von extremistischer Propaganda zu befreien. Caroline Haury, European Affairs Manager Brüssel der Stiftung für die Freiheit, erklärt, wie das technisch gehen soll. Sie stellt allerdings auch fest: Trotz der guten Absichten des Erfinders birgt die Technologie Gefahren. "Die Vorstellung mag reizvoll sein, einfach einen Knopf zu drücken oder einen Zahlencode zu erfinden, der Inhalte löscht, die unserer freien, liberalen Weltanschauung widersprechen. In einem freien Internet kann es einen solchen Knopf aber niemals geben", mahnt sie .
Mit eGlyph wolle die amerikanische Non-Profit-Organisation Counter Extremism Project (CEP) islamistischer Propaganda den Kampf ansagen, berichtet Haury. So sollte der Algorithmus die sogenannten "schlimmsten der schlimmsten" Bilder, Audiodateien und Videos aus dem Internet entfernen. "Die Technologie muss man sich wie einen digitalen Fingerabdruck vorstellen: Jede Datei hat eine einzigartige Signatur. Hat man einmal diese digitale DNA eines Enthauptungsvideos extrahiert, kann man alle zukünftig hochgeladenen Videos mit dieser DNA abgleichen", erläutert sie. Sollte das Video an anderer Stelle wieder auftauchen, so könnte es automatisch gelöscht werden.
Mit diesem automatischen Tool adressierten die Entwickler zumindest die Problematik der unendlichen Anzahl an Mediendateien der IS-Miliz und ihrer Sympathisanten im Netz, gibt die Stiftungsexpertin zu bedenken. "Oft dauert es Stunden, bis ein Video oder ein Foto von Usern oder den internen 'Wachhunden' der sozialen Medien entdeckt wird. Selbst wenn der Post gelöscht wird, hält dies die 'Internet-Hydra' nicht auf: für jedes heruntergenommene Video tauchen an anderer Stelle Kopien auf, die sich wiederum weiterverbreiten."
Dialog statt Knopf gegen unliebsame Inhalte
Die sozialen Medien seien allerdings wenig von eGlyph begeistert. "Stattdessen experimentieren Internetunternehmen zurzeit mit eigenen Algorithmen sowie Technologien der automatischen Gegenrede", erklärt Haury. So hätten Facebook, Twitter und Google im vergangenen Jahr ein Experiment durchgeführt, bei dem gefährdeten oder radikalisierten Usern aufgrund ihres Surf- und Suchverhaltens Videos angezeigt wurden, die zum kritischen Denken anregen und gemäßigte Positionen vertreten sollten.
Dialog zu fördern und durch Argumente Zweifel zu säen ist auch aus Sicht der Stiftungsexpertin dem automatischen Löschen von Content zu bevorzugen. Ein solcher Algorithmus könne nämlich auch zum Zensurmittel werden und legitime Beiträge löschen, "etwa von Dissidenten, die auf einem Blog über Gewalttaten informieren, oder Nachrichtenmedien, die das Material für die Berichterstattung nutzen", gibt sie zu bedenken.
Antiterror-Algorithmus bedroht die freie Gesellschaft
Der Algorithmus eGlyph wurde entwickelt, um das Internet von extremistischer Propaganda zu befreien. Caroline Haury, European Affairs Manager Brüssel der Stiftung für die Freiheit, erklärt, wie das technisch gehen soll. Sie stellt allerdings auch fest: Trotz der guten Absichten des Erfinders birgt die Technologie Gefahren. "Die Vorstellung mag reizvoll sein, einfach einen Knopf zu drücken oder einen Zahlencode zu erfinden, der Inhalte löscht, die unserer freien, liberalen Weltanschauung widersprechen. In einem freien Internet kann es einen solchen Knopf aber niemals geben", mahnt sie [1].
Mit eGlyph wolle die amerikanische Non-Profit-Organisation Counter Extremism Project (CEP) islamistischer Propaganda den Kampf ansagen, berichtet Haury. So sollte der Algorithmus die sogenannten "schlimmsten der schlimmsten" Bilder, Audiodateien und Videos aus dem Internet entfernen. "Die Technologie muss man sich wie einen digitalen Fingerabdruck vorstellen: Jede Datei hat eine einzigartige Signatur. Hat man einmal diese digitale DNA eines Enthauptungsvideos extrahiert, kann man alle zukünftig hochgeladenen Videos mit dieser DNA abgleichen", erläutert sie. Sollte das Video an anderer Stelle wieder auftauchen, so könnte es automatisch gelöscht werden.
Mit diesem automatischen Tool adressierten die Entwickler zumindest die Problematik der unendlichen Anzahl an Mediendateien der IS-Miliz und ihrer Sympathisanten im Netz, gibt die Stiftungsexpertin zu bedenken. "Oft dauert es Stunden, bis ein Video oder ein Foto von Usern oder den internen 'Wachhunden' der sozialen Medien entdeckt wird. Selbst wenn der Post gelöscht wird, hält dies die 'Internet-Hydra' nicht auf: für jedes heruntergenommene Video tauchen an anderer Stelle Kopien auf, die sich wiederum weiterverbreiten."
Dialog statt Knopf gegen unliebsame Inhalte
Die sozialen Medien seien allerdings wenig von eGlyph begeistert. "Stattdessen experimentieren Internetunternehmen zurzeit mit eigenen Algorithmen sowie Technologien der automatischen Gegenrede", erklärt Haury. So hätten Facebook, Twitter und Google im vergangenen Jahr ein Experiment durchgeführt, bei dem gefährdeten oder radikalisierten Usern aufgrund ihres Surf- und Suchverhaltens Videos angezeigt wurden, die zum kritischen Denken anregen und gemäßigte Positionen vertreten sollten.
Dialog zu fördern und durch Argumente Zweifel zu säen ist auch aus Sicht der Stiftungsexpertin dem automatischen Löschen von Content zu bevorzugen. Ein solcher Algorithmus könne nämlich auch zum Zensurmittel werden und legitime Beiträge löschen, "etwa von Dissidenten, die auf einem Blog über Gewalttaten informieren, oder Nachrichtenmedien, die das Material für die Berichterstattung nutzen", gibt sie zu bedenken.