Martin-Luther-Universität Halle-Wittenberg

Weiteres

Login für Redakteure

Detektion von Online Harassment, Cyber Bullying und Shitstorms in nutzergenerierten Textinhalten von Web 2.0 Applikationen

Web 2.0 Applikationen bieten ihren Nutzern die Möglichkeit, aktiv an der Inhaltserstellung zu partizipieren. Innerhalb dieser Applikationen werden durch die Nutzer Inhalte in vielfältiger Form generiert. In sozialen Netzwerken, wie z.B. Facebook und Twitter, legen die Teilnehmer persönliche Profile an, veröffentlichen Bilder und versenden Textnachrichten untereinander. Auf Videoportalen wie YouTube werden Videos eingestellt und kommentiert. Diskussionsplattformen, wie z.B. Reddit, laden die Nutzer zur öffentlichen Diskussion von Themen aller Art ein. Durch die Möglichkeit, nutzergenerierte Inhalte anonym und häufig ohne inhaltliche Restriktionen zu erstellen, entstehen allerdings auch Gefahren. Dazu gehört insbesondere der Missbrauch von Web 2.0 Applikationen für beleidigende Kommunikation zwischen den Nutzern.

Eine spezielle Form von beleidigender Kommunikation ist Online Harassment, das den Versand elektronischer Nachrichten mit dem Ziel, psychischen Schaden bei einem Opfer auszulösen, bezeichnet. Der wiederholte Versand von Online Harassment Nachrichten durch denselben Täter an dasselbe Opfer wird als Cyber Bullying definiert. Online Harassment und Cyber Bullying können schwerwiegende psychische Schäden, wie z.B. Depressionen, auslösen. Beleidigende Kommunikation richtet sich nicht nur gegen einzelne Personen, sondern auch gegen Unternehmen. In der deutschen Literatur wird dieses Phänomen der massenhaften negativen Reaktion über soziale Medien mit dem Begriff Shitstorm bezeichnet.

Aufgrund der großen Menge von nutzergenerierten Inhalten in Web 2.0 Applikationen ist eine manuelle Verarbeitung nur sehr eingeschränkt und unter hohen Kosten möglich. Das Ziel des Forschungsprojekts ist, mithilfe von automatisierten Verfahren Online Harassment, Cyber Bullying und Shitstorms innerhalb von nutzergenerierten Textinhalten durch die Konzeption und Entwicklung von Software-Artefakten zu erkennen. Auf Basis dieser Artefakte können Systeme zum automatisierten oder halbautomatisierten Umgang mit beleidigender Kommunikation realisiert werden.

Ansprechpartner

Prof. Dr. Ralf Peters
M.Sc. WI Uwe Bretschneider

Projektwebsite

Publikationen

Zum Seitenanfang