Ruhr-Uni-Bochum

SecHuman Lunch Break im SoSe 2023

Interdisziplinäres Arbeiten in der IT Sicherheit: Vorträge und Diskussionen aus unterschiedlichen (fachlichen) Perspektiven.

Herzliche Einladung zum SecHuman Lunch Break, (fast) jeden Mittwoch im Sommersemester 2023:

Ort: Geb. MC 1.84 und online über Zoom
Uhrzeit: 12:00 - 13:00 Uhr

 

Mittwoch, 3. Mai 2023

Jun.-Prof. Dr. Tatjana Scheffler (RUB): Digital Forensic Linguistics

Abstract:
Texts are increasingly created via digital media, and the vast amounts of digital textual data necessitate new methods for analyzing and processing them. In the Digital Forensic Linguistics group we apply corpus linguistic and computational methods in interdisciplinary research projects, investigating large corpora of authentic social media data. I will present two case studies of digital forensic analyses: (i) We perform authorship attribution of a large dataset of Wikipedia comments to test whether sockpuppet accounts are used to systematically manipulate articles. (ii) I present an ongoing research project aimed at developing artificial intelligence methods for supporting fake news debunking.

Short CV:
Tatjana Scheffler uses corpus and computational linguistic methods to study communication in digital media. Her research topics include theoretical analyses of informal digital language and emojis, and applied issues like the detection of hate speech and disinformation. She currently leads five funded research projects in linguistics and natural language processing. Tatjana received her PhD in 2008 from the University of Pennsylvania (USA), before working at the German Research Center for Artificial Intelligence, as well as at the universities of Potsdam and Konstanz. Since 2020, Tatjana Scheffler is Assistant Professor of Digital Forensic Linguistics at Ruhr University Bochum, Germany.

 

Mittwoch, 24. Mai 2023

Olga Skrebec (RUB): Coaching interdisziplinärer Kompetenzen

Abstract:
Der Vortrag umfasst die Evaluation eines Coachings zur Förderung der interdisziplinären Orientierung und interdisziplinärer Kompetenzen. Für die vorliegende Studie wurde ein Coaching zur Steigerung der Kompetenzen Perspektivenübernahme, Reflexivität, Ambiguitätstoleranz und Analoges Schlussfolgern entwickelt. Das Coaching war ein freiwilliges Angebot im Rahmen der Qualifizierung der DoktorandInnen der NRW Forschungskollegs und umfasste fünf semi-standardisierte einstündige Coachingsitzungen. Insgesamt nahmen N = 20 Personen am Coaching teil.
Die Ergebnisse zeigen, dass insbesondere die Fähigkeit zum analogen Schlussfolgern durch die Intervention gefördert werden konnte. Zusätzlich wurde ein signifikanter Anstieg der eigenen Zielerreichung für die Promotion festgestellt, sowie ein Anstieg der ergebnisorientierten Problem-  und Selbstreflexion.

Kurzbiografie:
Olga Skrebec war von Oktober 2018 bis März 2022 Mitglied im Forschungskolleg SecHuman. Seit April 2022 ist sie am Lehrstuhl für Arbeits-, Organisations-, und Wirtschaftspsychologie der Ruhr- Universität Bochum beschäftigt. Dort arbeitet sie weiterhin am Abschluss ihrer Doktorarbeit im Bereich Inter- und transdisziplinäre Kompetenzen. Weiterhin beschäftigt sie sich im Projekt KONDITION mit der Frage, wie Kompetenzen in Nicht-Routine-Situationen von Chemikant*innen und Pharmakant*innen durch Auffrischungstrainings gesteigert werden können. In einem interdisziplinären Projekt gemeinsam mit dem Lehrstuhl für Regelungstechnik und Systemtheorie widmet sie sich außerdem der Frage, wie sich Kopter-Indoor-Flüge auf Arbeitseffizienz und Arbeitskomfort von Produktionsmitarbeiter*innen auswirken.

 

Mittwoch, 7. Juni 2023

Niklas E. Kastor (TU Dortmund): Rechtsrisiken bei Faktenchecks: Problemfelder und Entwicklungen

Einladung und Moderation: Hanna Püschel und Leona Lassak

Abstract:
Digitale Netzöffentlichkeiten bieten bekanntermaßen zahlreiche Chancen für die freie, individuelle und öffentliche Meinungsbildung und -äußerung. Neben der Vielzahl an Beiträgen und Informationen kann sich jede*r an Debatten beteiligen.  Diesem Mehr an Informations- und Kommunikationsmöglichkeiten stehen Nachteile wie Hassrede und Desinformation gegenüber. Diese stellen eine erhebliche Gefahr für eine von sachlichen Argumenten geprägte öffentliche Auseinandersetzung dar. Zur Bekämpfung von Desinformation gehen soziale Netzwerke daher proaktiv gegen sie vor, indem sie externe Faktenchecker beauftragen, Beiträge zu überwachen und als falsch zu markieren. Dieser Ansatz ist jedoch rechtlich nicht unumstritten, denn Faktenchecks können die Meinungsfreiheit der Nutzer einschränken. Der Vortrag behandelt daher zunächst die Einordnung von Desinformationen in die Grundrechte, insbesondere in die Meinungsfreiheit. Im Anschluss wird die Bedeutung von sog. Faktenchecks zur Kennzeichnung von Desinformationen in Bezug auf Kommunikation und Grundrechte beleuchtet.

Kurzbiografie:
Niklas E. Kastor hat von Oktober 2015 bis 2020 an der Ruhr-Universität Bochum Rechtswissenschaften studiert. Anschließend begann er seine Promotion über die Zukunft des dualen Rundfunksystems. Hier beschäftigt er sich vor allem mit verfassungsrechtlichen Fragen. Seit 2021 arbeitet er an der Technische Universität Dortmund am Institut für Journalistik. Im Zuge dessen arbeitet er in verschiedenen Forschungsgruppen und hält Seminare im Medienrecht. Seit Mai 2020 ist er außerdem Tutor für IT-Sicherheitsrecht an der isits AG International School of IT Security und leitet für die BG3000 Workshops im Medienrecht für Schüler und Auszubildende.

 

Mittwoch, 21. Juni 2023

Dr. Konrad Kollnig (Maastricht University): Why CS must care about the law: priorities for more effective tech regulation

Einladung und Moderation: René Walendy und Markus Weber

Abstract:
Ample research has demonstrated that compliance with data protection principles remains limited on the web and mobile. For example, very few apps on the Google Play Store fulfil the minimum requirements regarding consent under EU and UK law, while most of them share data with companies like Google/Alphabet and Facebook/Meta and would likely need to seek consent from their users. Indeed, recent privacy efforts by Apple have had – in some regards – a more pronounced effect on apps' data practices than the EU's ambitious General Data Protection Regulation (GDPR). Given the current mismatch between the law on the books and data practices in reality, iterative changes to current legal practice will not be enough to meaningfully tame egregious data practices. Hence, this talk – from a European and Computer Science perspective – discusses a range of suggestions for academia, regulators and the interested public to move beyond the status quo.

Short CV:
Konrad Kollnig is assistant professor at the Law and Tech Lab of Maastricht University. Previously, he was a doctoral researcher at the Department of Computer Science of the University of Oxford and an associate researcher at the Open Data Institute. Konrad’s main research interests are building more sustainable digital ecosystems and using computer science techniques to answer questions relating to (technology) law. As part of this, he’s been empirically measuring the effect of data protection and privacy laws on the actual data practices of smartphone apps. The aim of this is to build regulatory technologies that help law scale across millions of websites and apps. He has also been selected as a member of the expert advisory bodies of the EU’s European Data Protection Board and the UK’s Information Commissioner’s Office (ICO). Konrad led the winning team in the United Nations Privacy Competition 2022. He is also the creator of the Android privacy app TrackerControl, exposing hidden data flows from apps to companies.

 

Mittwoch, 28. Juni 2023

Marco Gutfleisch (RUB): What can go wrong in your PhD research – Insights from 4th year PhD student.

Einladung und Moderation: Jonas Hielscher und Uta Menges

Abstract:
Most research talks focus on the results and study outcomes. This can be exhausting, especially with lectures that are very unrelated to your own subject. Methodological challenges and mistakes are often only superficially discussed. But that's where I think you can take a lot from other disciplines and research areas for your own research. For me, the best research ideas have usually come from in-depth discussions about a study’s methodology. In the context of the presentation, I would go into more detail about methodological approaches, problems, and challenges of my past research projects. Furthermore, I will talk openly about mistakes and decisions of (almost) failed projects.

Short CV:
Marco Gutfleisch is a Security Researcher at the chair of Human-Centred Security at the Ruhr University Bochum focussing on Security and Usability in Software Development. He worked for almost 4 years in quality assurance at a large German software security company and in 2019 he started his PhD as part of the Cluster of Excellence CASA. Within his research he investigates problems and solutions that could support the software industry to develop more secure and usable software while considering different organisational, technical, and human factors.

 

Mittwoch, 5. Juli 2023

Dr. Eilika Fobbe (BKA): Forensische Linguistik als kriminaltechnische Disziplin

Einladung und Moderation: Prof. Karin Pittner und Nora Giljohann

Abstract:
Forensische Linguistik oder Autorenerkennung ist als kriminaltechnische Disziplin am BKA fest etabliert. Immer wieder kommt es vor, dass ein anonymer Text (zunächst) die einzige Spur ist, die ein Täter hinterlässt. Mit dessen Auswertung unterstützt die Linguistik Polizei und Justiz bei der Strafverfolgung. Das Spektrum inkriminierter Texte, die analysiert werden, reicht vom handgeschriebenen Brief über E-Mails bis hin zu Chats im Dark Net. Der Vortrag führt anhand zwei typischer Aufgabenstellungen mit entsprechenden Beispielen in die linguistische Arbeit ein und thematisiert darüber hinaus, welchen besonderen Erfordernissen sich Linguistinnen und Linguisten bei ihrer Arbeit im forensischen Kontext gegenübersehen, wie dies die eigene Arbeit prägt und was angewandte Linguistik speziell als forensische Wissenschaft charakterisiert.

Kurzbiografie:
Dr. Eilika Fobbe arbeitet seit 2019 als Linguistin in der Autorenerkennung im BKA in Wiesbaden. Sie hat an der Universität Göttingen zu einem Thema der historischen Syntax promoviert und war mehrere Jahre wissenschaftliche MA an den Universitäten Göttingen und Greifswald. Seitdem war sie auch als private linguistische Sachverständige tätig. Sie hat eine Einführung in die Forensische Linguistik veröffentlicht und zu verschiedenen Aspekten forensischer-linguistischer Textanalyse publiziert. Ihre aktuellen Forschungsschwerpunkte liegen im Bereich der Autorschaftsanalyse, der Stilistik und der linguistischen Täuschungsforschung.

 

Mittwoch, 12. Juli 2023

Pascal Zimmer (RUB): Adversarial Examples: Gezielte Manipulationen von Machine Learning Systemen

Einladung und Moderation: Lukas Plätz und Kaya Cassing

Abstract:
Machine Learning gewinnt zunehmend an Bedeutung in Forschung und Praxis. Allerdings haben die meisten Machine Learning Systeme ein gemeinsames Problem: sie sind anfällig für gezielte Manipulationen ihrer Vorhersagen durch sogenannte Adversarial Examples. In diesem Vortrag führen wir in das Thema des Machine Learning ein und erklären exemplarisch die Generierung von Adversarial Examples. Der Schwerpunkt liegt auf der Anwendbarkeit und den Aspekten von Adversarial Examples im realen Umfeld. Wir präsentieren eine Vielzahl von Forschungsprojekten und betonen die zukünftige Relevanz dieses Themas für die Forschung sowie den Beitrag von Adversarial Examples zur Robustheit von Machine Learning Systemen.

Kurzbiografie:
Pascal Zimmer beschäftigt sich in seiner Forschung am Lehrstuhl für Informationssicherheit mit der Sicherheit von Machine Learning Systemen. Er absolvierte sein Studium an der Ruhr-Universität, in dem er sich zunächst auf Funksicherheit spezialisierte. Dabei forschte er unter anderem an Maßnahmen zur Sicherung des atomaren Abrüstungsprozesses mittels Funktechnologie und an der Sicherheit von Satellitenkommunikation. In seiner Promotion stehen nun besonders realitätsnahe Anwendungszenarien von Machine Learning, wie bspw. autonomes Fahren, Gesichtserkennung, und Large Language Models, im Vordergrund.