"Big Data": Kurzbeschriebe der Projekte
Wie kann Herausforderungen im Zusammenhang mit grossen Datenmengen begegnet werden? Zwei Forschungsteams der Universität Luzern gehen diesen Fragen im Rahmen eines Nationalen Forschungsprogramms auf den Grund.
Eines der beiden Teams steht unter der Leitung von PD Dr. Mira Burri, Dozentin an der Rechtswissenschaftlichen Fakultät, das andere wird von Ass.-Prof. Sophie Mützel, PhD, Assistenzprofessorin für Soziologie mit Schwerpunkt Medien und Netzwerke, geführt. Burri befasst sich mit der Thematik "The Governance of Big Data in Trade Agreements: Design, Diffusion and Implications" (Laufzeit: 3 Jahre, Personal: 1 Postdoc und 2 Doktorierende, bewilligte Summe: rund 550'000 Franken). Mützel forscht zum Thema "Facing Big Data: Methods and Skills Needed for a 21st Century Sociology" (3.5 Jahre, 3 Doktorierende, rund 650’000 Franken). Beide Projekte – siehe Kurzbeschriebe unten – sind Teil des NFP-Moduls "Gesellschaftliche, regulatorische und bildungsbezogene Herausforderungen".
"Big Data" ist ein relativ neues Phänomen, entwickelt sich aber nicht in einem rechtlichen Vakuum. Viele der "alten" Regelungen, wie im Bereich des Datenschutzes oder des Urheberrechts, kommen zur Anwendung. Auf der internationalen Ebene sind diese Normen oft in Handelsabkommen verankert – sei es im multilateralen Forum der Welthandelsorganisation (WTO) oder, wie immer häufiger, in bilateralen oder regionalen Freihandelsabkommen. Trotzdem wird das Thema «Big Data» nur selten in Verbindung mit dem Handelsregime gebracht, und bislang gibt es keine systematische Analyse der relevanten Regeln. Es ist ein Anliegen des Projekts, diese Lücke zu füllen. Es wird nicht nur umfassend die bereits existierenden wirtschaftsrechtlichen Normen in Bezug auf Data und Big Data untersuchen, sondern auch die Entwicklung dieser regulatorischen Modelle und deren Verbreitung, oft in Nachahmung wichtiger politischer und ökonomischer Akteure wie die USA oder die EU. Des Weiteren widmet sich das Projekt der Frage, inwiefern der Staat in Anbetracht der vorkommenden handelsrechtlichen Schranken immer noch frei agieren und neue Big-Data-Regelungen verabschieden kann. Im normativen Teil des Projekts schliesslich werden gewisse Empfehlungen erarbeitet, welche sowohl die Zweckmässigkeit wirtschaftsrechtlicher Instrumente für Big-Data-Lösungen prüfen als auch nachhaltige Modelle suchen, die Daten-Protektionismus verhindern und gleichzeitig öffentliche Interessen, wie die Wahrung der Privatsphäre, schützen.
Das Projekt widmet sich den methodischen Herausforderungen für die Disziplin Soziologie, die sich mit dem Aufkommen von grossen Datenmengen ergeben. Die Soziologie, verstanden als Disziplin, die mit Hilfe von theoretischen Konzepten und einem methodischen Werkzeugkasten empirische Phänomene analysiert, um das Soziale zu erklären, könnte in einer führenden Position sein, um sich an der Analyse des digital geprägten Sozialen zu beteiligen. Doch sind es momentan andere Disziplinen, die sich an der Untersuchung dieses weitreichenden Wandels der Daten und Methoden beteiligen. Ein möglicher Grund dafür liegt in fehlenden methodischen Kenntnissen und damit verbunden einer fehlenden analytischen Vision von Untersuchungen und Erkenntnismöglichkeiten. Der methodische Werkzeugkasten der Soziologie, klassischerweise geprägt von Stichproben, Regressionsverfahren oder qualitativen Untersuchungen, muss dringend erweitert werden, um neuen Generationen von Soziologinnen und Soziologen die Erhebung, die Bereinigung, die Analyse und die Interpretation von grossen, oftmals unstrukturierten, nicht-numerischen Daten zu ermöglichen. So könnte zusätzlich zu einer digitalen Aufklärung auch eine data literacy befördert werden. Gleichzeitig kann die Soziologie mit ihren Erkenntnissen z.B. zur Datenkonstruktion oder zu den langfristigen sozialen Auswirkungen von algorithmischen Klassifikationsprozeduren auch anderen Disziplinen in der Bearbeitung von grossen Datenmengen wichtige Einsichten liefern.