Studie  |  26.01.2023

Vorwürfe sexuellen Fehlverhaltens, beschuldigte Forschende und ihre wissenschaftliche Arbeit

Sanktioniert die wissenschaftliche Gemeinschaft sexuelles Fehlverhalten? Während wissenschaftliche Arbeit gemäß Mertons Norm des Universalismus unabhängig davon beurteilt werden sollte, wer sie geschaffen hat, sollte die wissenschaftliche Gemeinschaft auch gutes Sozialverhalten fördern, um ein inklusives Umfeld zu schaffen. Die Ergebnisse einer neuen Studie werfen eine Reihe von ethischen Fragen auf, die die wissenschaftliche Gemeinschaft in Zukunft beantworten muss. 

Ziel der Wissenschaft ist, Wissen zu produzieren. Um diesen Prozess zu erleichtern, ist die Wissenschaft nach einer Reihe von Grundsätzen organisiert, die als „Merton’sche Normen“ bekannt sind. Ein Grundsatz ist unter anderem, dass Ideen nach ihrem eigenen Wert beurteilt werden, unabhängig davon, wer sie geschaffen hat. Gleichzeitig ist Wissenschaft aber auch ein soziales System. Die Gemeinschaft der Forschenden kann sich auf zusätzliche Normen stützen, um ein inklusives Umfeld zu schaffen und sich selbst zu regulieren. Manchmal stehen diese Normen in Konflikt miteinander.


Es gibt Anhaltspunkte dafür, dass die Gemeinschaft den wissenschaftlichen Artikeln von Forschenden, von denen Arbeiten zurückgezogen wurden, weniger Aufmerksamkeit schenkt, d.h. sie weniger zitiert. Eine solche Strafe kann als vereinbar mit Merton’schen Normen angesehen werden, da Rücknahmen Zweifel an der Gültigkeit der Arbeit aufkommen lassen. Vergleichbare Strafen für Beiträge von Forschenden, die in eklatanter Weise gegen soziale Normen verstoßen haben, sind jedoch problematisch.


In einer neuen Studie versuchen Rainer Widmann, Michael E. Rose und Marina Chugunova die Frage zu beantworten, ob die wissenschaftliche Gemeinschaft nicht nur „schlechte Wissenschaft“, sondern auch „schlechtes Sozialverhalten“ sanktioniert. Sie konzentrieren sich dabei auf sexuelles Fehlverhalten, das in der Wissenschaft wie auch in anderen Bereichen eine verbreitete Form der Verletzung sozialer Normen darstellt.


In ihrer Analyse verfolgen sie die Zitierungen wissenschaftlicher Artikel mutmaßlicher Täter, die vor Anschuldigungen sexuellen Fehlverhaltens veröffentlicht wurden, und vergleichen sie mit den Zitierungen anderer Artikel aus der gleichen Zeitschriftenausgabe. Sie stellen fest, dass die wissenschaftliche Gemeinschaft frühere Arbeiten mutmaßlicher Täter weniger zitiert, nachdem Anschuldigungen sexuellen Fehlverhaltens aufgetaucht sind. Forschende, die dem Täter im Rahmen eines Koautoren-Netzwerks sehr nahestehen (z.B. ehemalige Koautor*innen), reagieren am stärksten und reduzieren ihre Zitierungen am deutlichsten. Vergleicht man die Ergebnisse der neuen Studie mit Zitationsstrafen für wissenschaftliches Fehlverhalten, scheinen die Größenordnungen ähnlich zu sein. Schließlich dokumentiert die Studie, dass mutmaßliche Täter mit spürbaren Konsequenzen für ihre Karriere zu rechnen haben: Sie veröffentlichen weniger, kooperieren weniger mit anderen und verlassen die akademische Forschung mit größerer Wahrscheinlichkeit.


Es kann mehrere Gründe geben, warum Autorinnen und Autoren Zitate zurückhalten. Erstens könnten sie dies tun, um zu bestrafen – selbst dann, wenn die Bestrafung mit Kosten verbunden ist, etwa einem Abweichen von der üblichen Norm beim Zitieren relevanter früherer Arbeiten. Zweitens zitieren Autorinnen und Autoren möglicherweise deshalb nicht, um nicht als Befürworter sexuellen Fehlverhaltens zu gelten. Dieses Motiv könnte besonders für Forschende relevant sein, die dem mutmaßlichen Täter nahestehen. Drittens trennen Fachkolleginnen und -kollegen möglicherweise nicht zwischen akademischem und nichtakademischem Fehlverhalten oder sind der Ansicht, dass Fehlverhalten in beiden Bereichen zusammenhängt.


Die vorgestellte Studie ist die erste, die systematische Erkenntnisse über die Folgen sexuellen Fehlverhaltens für die Täter liefert. Die Ergebnisse werfen eine Reihe ethischer Fragen auf, die das Spannungsverhältnis zwischen der Förderung von Wissen und der Förderung der Wissenschaft als sozialer Institution verdeutlichen. Ist der Rückgang der Zitate von früheren Arbeiten des Täters eine unangemessene Verzerrung des wissenschaftlichen Prozesses oder eine angemessene Strafe? Ist der Verlust an wissenschaftlichem Output durch den Ausschluss oder die Bestrafung von mutmaßlichen Tätern akzeptabel? Sind die dokumentierten Konsequenzen für die berufliche Laufbahn angemessen, wobei auch ein möglicher Abschreckungseffekt für (künftige) Opfer berücksichtigt wird? Die Ergebnisse der Studie bieten eine neue Grundlage für eine Diskussion dieser wichtigen Themen.


Weitere Informationen:


Direkt zur Publikation

Allegations of Sexual Misconduct, Accused scientists, and Their Research

Max Planck Institute for innovation and Competition Research Paper No. 22-18

Michael E. Rose beim Scan eines Verzeichnisses
Studie  |  22.07.2022

Wie Ahnenforschung die Wissenschaft unterstützt – ein Citizen-Science-Projekt

Das Institut führt ge­mein­sam mit dem Verein für Com­puter­ge­nea­logie (CompGen) ein Dig­ita­lisie­rungs­projekt durch, bei dem Laien bei der Daten­er­fas­sung helfen. Die Daten aus über 100 Jahr­gängen der „Jahres­ver­zeich­nisse der an den Deut­schen Uni­ver­sitäten und Hoch­schulen er­schie­ne­nen Schriften“ er­öff­nen viele neue, span­nende For­schungs­fragen.

Michael E. Rose beim Scan eines Verzeichnisses
Senior Research Fellow Michael E. Rose, Ph.D., beim Scan eines Verzeichnisses
Eintrag der Dissertation von Fritz Haber in der Bearbeitungsmaske
Eintrag der Dissertation von Fritz Haber in der Bearbeitungsmaske
Originaleintrag der Dissertation von Hilde Mangold
Originaleintrag der Dissertation von Hilde Mangold

Citizen Science, auch Bürger­wissen­schaft genannt, lebt von der Interaktion zwischen Bürger*innen und For­schenden. Das Ko­operations­interesse nimmt stetig zu. Bekannt sind Projekte im Umwelt­bereich vom Vogel­zählen bis zur Bienen­beobachtung.


Seit Dezember 2021 kooperiert nun das MPI für Innovation und Wett­bewerb mit dem Verein für Computergenealogie (Comp­Gen) in einem Daten­projekt, bei dem die „Jahres­verzeich­nisse der an den Deut­schen Uni­ver­sitäten und Hoch­schulen erschienenen Schriften“ erfasst werden. Die Ver­zeich­nisse, die zwischen 1885 und 1987 zunächst von der Königlichen Bibliothek Berlin und später von der Deutschen Bücherei in Leipzig herausgegeben wurden und 103 Jahr­gänge umfassen, listen hauptsächlich Disser­tationen und Habilitations­schriften auf, die an deutschen Uni­versitäten und Hoch­schulen ent­standen sind. Danach wurden die Ver­zeich­nisse in dieser Form eingestellt. Eine digitale Fort­setzung scheiterte.


Für die Bürger*innen, die Genealogie oder Familien­forschung be­trei­ben, sind die Listen, die teils reiche bio­graphische Angaben ent­halten, inter­essant, weil sie hoffen, auf Vor­fahren, Träger*innen gleichen Namens oder Personen aus ihrem Ort oder ihrer Region zu treffen. So berichtet die am Projekt mit­ar­bei­tende Birgit Casper zu ihrer Moti­vation bei der Daten­erfassung: „Ich kenne in meiner Familie zwei Ärzte. Von einem, geb. 1891, weiß ich ziemlich genau, wo er studiert hat und dass er 1920 seine Dis­ser­tation ‚Über Vergiftungs­fälle mit ameri­kanischem Wurm­samen­öl‘ an der medi­zi­ni­schen Fa­kultät in Rostock abgegeben hat. Vom anderen, geb. 1892, weiß ich nur, wo er ab 1924 als Arzt prak­tiziert hat. Ich weiß weder, wo er studiert hat, noch wann und über welches Thema er promo­viert hat. Da warte ich auf den ent­sprechenden Band.“


Für die Wissen­schaft sind die Listen spannend, da sie eine voll­ständige Über­sicht über For­schende geben, die seit 1885 an deut­schen Hoch­schulen aus­ge­bildet wurden und teils inter­national be­deu­tend waren. Da deut­sche Hoch­schulen um die Jahr­hundert­wende in nahezu allen Dis­zi­plinen inter­national füh­rend waren, verspricht das Projekt be­sonders inter­essante Ein­blicke: Wir finden die Disser­tationen zahl­reicher späterer Nobel­preis­träger*innen, wie von Walther Nernst, der 1920 den Nobel­preis für Chemie erhielt und im Direk­torium des Kaiser-Wilhelm-Instituts (KWI) für Physik war, sowie Werner Heisenberg, dem späteren Namens­geber des nachfolgenden MPI für Physik, und zudem mit Maria Goeppert-Mayer, die 1963 mit dem Nobel­preis für Physik ausgezeichnet wurde, die erste deutsche Nobel­preis­trägerin.


Auch der erste reguläre Doktor­titel für eine Frau wird sich in den Listen finden. Tat­sächl­ich sind Frauen zunächst stark unter­re­präsen­tiert. Nur wenige durften vor 1900 promo­vieren und dies nur mit Sonder­ge­neh­migung. Erst zwischen 1901 und 1908 ließen die deut­schen Staaten Frauen suk­zessive an ihren Hoch­schulen zu. Das Recht zur Promo­tion jedoch ver­gaben die Fa­kul­­täten selbst. Eine sys­tema­tische Er­fassung aller Disser­tationen wird somit eine voll­ständige Über­sicht generieren, ab wann spätestens Frauen an welchen Hoch­schulen und Fa­kul­täten promo­vieren durften. Das Recht zur Habilitation – der Weg zur Professur – wurde ihnen übrigens noch später gegeben: Auch hier können die Listen helfen, Licht ins Dunkel zu bringen.


Wie gestaltet sich die Zusammenarbeit zwischen Wissenschaft und Laien im Projekt?


Um Freiwillige zu finden, die an dem Projekt mitarbeiten wollen, publiziert CompGen auf Twitter und im Blog auf der Compgen-Website Aufrufe und Updates. Auf einer speziellen Wiki-Seite zum Projekt können die Freiwilligen sich registrieren, über die Editionsrichtlinien informieren und direkt mit der Datenbearbeitung beginnen.


Michael E. Rose, Senior Research Fellow am MPI für Innovation und Wettbewerb, der das Projekt leitet und im Bereich „Science of Science“, also Forschung über Wissenschaft an sich, tätig ist, scannt die Verzeichnisse sukzessive.


Dann werden die Listen mit einem Text­er­ken­nungs­pro­gramm er­fasst und grob seg­mentiert: Was sind Vorname, Nachname, Titel der Disser­tation, das Datum der Ver­tei­digung, weitere An­gaben? Die Frei­willigen aus der Ah­nen­­forschung nutzen die vom Verein bereit­gestellte Infra­struktur (Eingabemaske und Datenspeicher), um die Einträge Korrektur zu lesen und händisch zu ergänzen. Die erfassten Daten­sätze stehen sofort für eine Such­ab­frage bereit. Bisher wurden sieben Jahr­gänge bearbeitet. Nach Ab­schluss des Projekts werden die Listen, die mit Ver­knüp­fungen, etwa zur Deutschen National­bibliothek, zu Wikipedia und Scopus, einer multi­disziplinären Abstract- und Zitations­datenbank für Forschungs­literatur, versehen sind, öffent­lich als Forschungs­daten ver­fügbar sein.


Eine der be­kann­testen bisher erfassten Persön­lich­keiten ist Fritz Haber, der als Gründungs­direktor 22 Jahre lang das KWI für Physikalische Chemie und Elektrochemie in Berlin leitete, das heute nach ihm benannt ist. Seine Disser­tation „Ueber einige Derivate des Piperonals“, einen fungiziden Duft­stoff, findet sich im VI. Jahrgang (1890/91). Fritz Haber erhielt den Nobel­preis 1919, nach­träglich für das Jahr 1918, für seine For­schung zur katalytischen Synthese von Ammoniak – also in einem anderen Forschungs­bereich als seine Dissertation.


Max von Laue hingegen, der 1903 bei Max Planck „Über die Inter­ferenz­erschei­nungen an plan­paral­lelen Platten“ promo­vierte, verfolgte die mit der Disser­tation begonnene Forschung weiter – bis zum Nobel­preis, der ihm 1914 für seine Arbeit über Röntgen­strahl­inter­ferenzen zuerkannt wurde.


Jedoch nicht allen Promo­vierenden konnte die verdiente An­erken­nung zuteilwerden. Die Forschung von Hilde Mangold im Bereich der Em­bryologie führte 1935 zu einem Nobel­preis für ihren Doktor­vater Hans Spemann, der während des Ersten Weltkriegs Direktor am KWI für Biologie in Berlin-Dahlem war. Mangold selbst kam kurz nach Ver­tei­digung ihrer Disser­tation 1924 bei einem Brand ums Leben. Immer­hin wird die prämierte Entdeckung, der Spemann-Organisator, gelegent­lich auch Spemann-Mangold-Organisator genannt.


Die im Projekt digitalisierten Daten ermöglichen aufgrund ihrer Detailtiefe und Vollständigkeit zahlreiche spannende Forschungsfragen. Können wir an juristischen Dissertationen Probleme einer Epoche ablesen? Wie ändern sich Demographie und soziale Herkunft von Promovierenden im Laufe der Zeit und an den einzelnen Universitäten? Wer waren die Frauen, die als Pionierinnen einen Doktortitel errangen? Wie ist der Zusammenhang von Dissertationen und Patentaktivität?


Doch zuvor muss der Datensatz fertig gestellt werden und dafür wird noch jede Hand und jedes Augenpaar gebraucht. Mehr Informationen unter https://wiki.genealogy.net/Hochschulschriften.

Studie  |  01.05.2022

Ruled by Robots – Wie nehmen Menschen maschinengestützte Entscheidungen wahr?

Algorithmen und Künstliche Intelligenz (KI) sind zu einem integralen Teil von Entscheidungs­prozessen geworden. Würden Menschen moralische Entscheidungen, die sie betreffen, lieber von einem Menschen oder einem Algorithmus treffen lassen? In einer neuen Studie wurden diese und weitere Fragen in einem Laborexperiment untersucht.

Da technologiegestützte Entscheidungsfindung immer weiter verbreitet ist, ist es wichtig zu verstehen, wie die algorithmische Natur des Entscheidungsträgers sich darauf auswirkt, wie Betroffene solche Entscheidungen wahrnehmen. Die Anwendung algorithmischer Hilfsverfahren reicht von Vorhersage­entscheidungen, z.B. wen man einstellen und welches Gehalt man anbieten soll, bis hin zu moralischen Entscheidungen, für die es keine objektiv richtige Lösung gibt, z.B. wie ein Bonus innerhalb eines Teams gerecht verteilt werden soll.


Marina Chugunova und Wolfgang J. Luhan (University of Portsmouth) studieren in einem Laborexperiment die Präferenz für menschliche oder algorithmische Entscheidungsträger bei Umverteilungsentscheidungen. Umverteilungsentscheidungen können als eine Art moralischer Entscheidungen betrachtet werden, bei denen die Definition von richtig oder gerecht von den persönlichen Idealen und Überzeugungen des Betrachters abhängt. Das Autorenteam untersucht insbesondere, ob algorithmische Entscheidungsträger aufgrund ihrer Unvoreingenommenheit bevorzugt werden. Die Frage, welche Art von Entscheidungsträger bevorzugt wird und wessen Entscheidungen als fairer empfunden werden, kann die Akzeptanz von Entscheidungen oder politischen Maßnahmen und damit auch die Zustimmung dazu verbessern.


Das Experiment


Das Hauptziel des Experiments bestand darin, eine Situation zu schaffen, in der die Präferenz der Teilnehmenden für einen menschlichen oder algorithmischen Entscheidungsträger bei einer Einkommensumverteilung beobachtbar war. Zunächst verdienten die Versuchspersonen ihr Starteinkommen individuell, indem sie drei Aufgaben erfüllten. Diese drei Aufgaben bildeten drei potenzielle Determinanten des Einkommenserwerbs nach, die in den wichtigsten Fairness-Theorien eine zentrale Rolle spielen: Glück, Anstrengung und Talent. Anschließend wurden die Versuchspersonen zu Paaren zusammengestellt und mussten einen Entscheidungsträger wählen: entweder den Algorithmus oder eine dritte Person. Der Entscheidungsträger bestimmte, wie das Gesamteinkommen des Paares zwischen den beiden Partnern umverteilt werden sollte. Um die Rolle der Voreingenommenheit zu testen, wurde für den menschlichen Entscheidungsträger eine laborinduzierte Quelle potenzieller Diskriminierung eingeführt. Anschließend bekamen die Teilnehmenden die Entscheidung mitgeteilt und mussten angeben, wie zufrieden sie mit einer bestimmten Umverteilungs­entscheidung waren und wie fair sie diese bewerteten.


Die Ergebnisse


Im Gegensatz zu früheren Studien stellte das Autorenteam fest, dass die Mehrheit der Teilnehmenden – mit über 60% – den Algorithmus als Entscheidungsträger einem Menschen vorzieht. Dies ist jedoch nicht auf Bedenken über voreingenommene menschliche Entscheidungen zurückzuführen. Trotz der Präferenz für algorithmische Entscheidungsträger werden die von Menschen getroffenen Entscheidungen positiver bewertet. Die subjektive Bewertung von Entscheidungen wird vor allem durch eigene materielle Interessen und Fairnessideale bestimmt. Was die Fairnessideale betrifft, zeigen die Versuchspersonen im Experiment eine bemerkenswerte Flexibilität: Sie tolerieren jede erklärbare Abweichung zwischen der tatsächlichen Entscheidung und ihren eigenen Idealen. Sie sind zufrieden und halten jede Umverteilungsentscheidung, die Fairnessprinzipen folgt, für gerecht, auch wenn sie nicht mit ihren eigenen Prinzipien übereinstimmt. Sie reagieren aber sehr stark und negativ auf Umverteilungs­entscheidungen, die mit keinerlei Fairnessidealen erklärbar sind.


Die Schlussfolgerungen


Die Ergebnisse der Studie deuten darauf hin, dass selbst im Bereich moralischer Entscheidungen algorithmische Entscheidungsträger menschlichen Entscheidungsträgern vorgezogen werden könnten, wobei die tatsächliche Leistung des Algorithmus eine wichtige Rolle bei der Bewertung der Entscheidungen spielt. Um „den Erwartungen gerecht zu werden” und die Akzeptanz von KI-Entscheidungen zu erhöhen, muss der Algorithmus konsequent und kohärent Fairnessprinzipien anwenden.


Direkt zu Publikation der Studie:


Marina Chugunova, Wolfgang J. Luhan
Ruled by Robots: Preference for Algorithmic Decision Makers and Perceptions of Their Choices
Max Planck Institute for Innovation & Competition Research Paper No. 22-04

Studie  |  04.02.2022

Muss das Urheberrecht im wissenschaftlichen Bereich neu definiert werden?

In einer rechts­vergleichenden Studie unter­suchen Valentina Moscon und Marco Bellia die Rege­lungen zum Urheber­recht für das aka­de­mische Publi­kations­wesen in Italien, Deutsch­land und den USA. Dabei stellen sie bekannte Ansätze vor und kommen zu einem Lösungs­vor­schlag, der ein faireres und effi­zien­teres Publi­kations­wesen verspricht.

Eine seit vielen Jahren andauernde Diskussion über Urheberrecht im wissenschaftlichen Publikationswesen zeigt, welche Rolle das Urheberrecht einnimmt und auch welche dysfunktionalen Auswirkungen es hier hat.


Die Interessen kommerzieller Verlage und anderer Informationsanbieter unterscheiden sich von denen akademischer Autoren, wobei erstere in der Regel eine Strategie der Gewinnmaximierung verfolgen, während letztere einen breiten Zugang, eine offene und rechtzeitige Verbreitung sowie die Weiterverwendung wissenschaftlicher Ergebnisse sicherstellen wollen. Zudem wird Forschung in aller Regel durch Dritte finanziert, so dass akademische Autor*innen nicht primär auf ein Einkommen aus Veröffentlichungen angewiesen sind – Forschende publizieren in erster Linie um ihre Reputation zu verbessern und ihre Karriere voranzutreiben.


In diesem Zusammenhang lenkt der Beitrag von Valentina Moscon (Max-Planck-Institut für Innovation und Wettbewerb) und Marco Bellia (Università Cattolica del Sacro Cuore) die Aufmerksamkeit auf mögliche neue Modelle, die ein faireres und effizienteres wissenschaftliches Publikationswesen versprechen. Nach einer Betrachtung des rechtlichen Hintergrunds in Italien, Deutschland und den USA ziehen die Autoren verschiedene Maßnahmen in Betracht, von denen einige bereits auf nationaler Ebene ergriffen wurden. Bei diesen Maßnahmen kann es sich um private Eingriffe handeln, wie beispielsweise Verträge und Richtlinien der Hochschulen, oder um öffentliche, also gesetzgeberische Eingriffe. Letztere umfassen Maßnahmen außerhalb oder innerhalb des Urheberrechtssystems.


“International Instrument” als Modell für eine faire Lösung


Die Autoren kommen zu dem Schluss, dass es die beste Lösung ist, die Grenzen des Urheberrechtes neu zu definieren, indem der Umfang der erlaubten Nutzungen erweitert und gleichzeitig deutlicher festgelegt wird. Dies würde zu einer ausgewogeneren Funktionsweise des akademischen Publikationssystems führen. Ein Vorschlag in diese Richtung kommt von einer Urheberrechtsexperten-Gruppe,  die das International Instrument on Permitted Uses in Copyright Law entworfen hat. Zu dieser Gruppe gehört auch Valentina Moscon. Dieses Instrument, das in Form eines internationalen Abkommens konzipiert ist, hat das Ziel, ein ausgewogeneres System für den Umfang des internationalen Urheberrechtsschutzes zu schaffen. Neben anderen Bestimmungen enthält es ausdrücklich Regeln für zulässige Nutzungen im akademischen Bereich, einschließlich Nutzungen im Rahmen von Recherchen, Datenanalysen, Bildungszwecken und zur Verarbeitung von Werken durch Bibliotheken, Museen und Archive.


Zur Publikation:

Marco Bellia, Valentina Moscon
Academic Authors, Copyright and Dissemination of Knowledge: A Comparative Overview
Max Planck Institute for Innovation & Competition Research Paper No. 21-27

Studie  |  01.10.2021

Was verraten uns Laborkatastrophen über die Bedeutung von Sachkapital für die Forschung?

Die Forschung hat sich bisher weitgehend auf die wichtige Rolle von Humankapital bei der Schaffung von Wissen konzentriert. In einer neuen Studie wird nun die Rolle von Sachkapital bei der Wissensproduktion untersucht, wobei Laborkatastrophen wie Explosionen, Brände und Überschwemmungen als natürliches Experiment dienen. Die Ergebnisse liefern wichtige Hinweise für die Wissenschafts- und Innovationspolitik.

Die Autoren der Studie ermitteln die Bedeutung von Sachkapital für die Wissensproduktion. Dafür betrachten sie widrige Ereignisse (Explosionen, Brände, Überschwemmungen usw.) in Forschungseinrichtungen als exogene Schocks für den Bestand an Sachkapital. Forschende erfahren einen erheblichen und anhaltenden Rückgang ihrer Forschungsleistung, wenn sie spezialisiertes Sachkapital verlieren, d.h. Instrumente und Materialien, die sie im Laufe der Zeit für einen bestimmten Forschungszweck geschaffen haben. Im Gegensatz dazu erholen sie sich schnell, wenn sie nur allgemeines Sachkapital verlieren. Betroffene Forschende in älteren Laboren, die vermutlich mehr veraltetes Sachkapital verlieren, ändern eher ihre Forschungsrichtung und erholen sich in ihrer wissenschaftlichen Produktivität. Diese Ergebnisse deuten darauf hin, dass die Investitionen von Forschenden in eigenes Sachkapital dauerhafte Erträge bringen, aber auch eine Pfadabhängigkeit in Bezug auf ihre Forschungsrichtung schaffen.


Die Studie legt nahe, dass die Wissenschafts- und Innovationspolitik die Rolle des Sachkapitals bei der Wissensproduktion stärker berücksichtigen sollte.


Direkt zur Publikation von
Stefano Baruffaldi und Fabian Gaessler
The Returns to Physical Capital in Knowledge Production: Evidence from Lab Disasters
Max Planck Institute for Innovation & Competition Research Paper No. 21-19

Studie  |  03.08.2021

Schutz Geographischer Herkunftsangaben: Weitere Schritte in der GI-Forschungsagenda des Instituts

Nachdem die Auswirkungen Geographischer Herkunftsangaben bislang kaum erforscht sind, hat das Institut 2018 eine eigene Forschungsinitiative zu dem Thema ins Leben gerufen. Eine Forschungsgruppe untersucht verschiedene Ansätze zum Schutz Geographischer Herkunftsangaben in der Europäischen Union und in lateinamerikanischen Ländern.

Geographische Herkunftsangaben (Geographical Indications, GIs) sind Bezeichnungen für Produkte aus bestimmten Regionen, die ihre Qualität oder Reputation ihrer geographischen Herkunft verdanken. Indem sie zur Qualitätsdifferenzierung von lokalen Produkten dienen, erhalten entsprechende Waren mehr Beachtung im Markt und erzielen meist höhere Preise. Auf diese Weise sind Geographische Herkunftsangaben wichtige Mittel, um die wirtschaftliche Entwicklung insbesondere im ländlichen Raum zu fördern.


Obwohl die weltweite Aufmerksamkeit für GIs wächst – sowohl von Seiten der Politik als auch der Ökonomie – gibt es bislang nur wenig rechtswissenschaftliche Forschung zu dem Thema. Das Institut, das bereits seit vielen Jahren in dem Bereich forscht, hat deswegen 2018 eine eigene Forschungsagenda ins Leben gerufen, die Geographische Herkunftsangaben tiefgreifend untersucht. Die Initiative geht in zwei verschiedene Richtungen: Sie nimmt zum einen eine Gesamtbetrachtung des GI-Systems der Europäischen Union vor, zum anderen untersucht sie das Potenzial von GI-Systemen in Lateinamerika.


Gesamtbewertung des GI-Systems in der EU


Innerhalb der Europäischen Union gibt es seit 1992 ein einheitliches Schutzsystem für Geographische Herkunftsangaben für landwirtschaftliche Produkte und Lebensmittel. Unterschieden werden zwei Arten Geographischer Herkunftsangaben: Sogenannte Protected Geographical Indications (PGIs) und Protected Designations of Origin (PDOs). Beide genießen den gleichen Schutzumfang, unterscheiden sich jedoch hinsichtlich der Anforderungen an die Registrierung und Aufrechterhaltung. 


Obwohl sich das europäische GI-System in der Praxis bewährt hat, besteht die Notwendigkeit, seine allgemeine Funktionsweise während der vergangenen drei Jahrzehnte besser zu verstehen. Eine Forschungsgruppe mit fünf Mitgliedern hat deswegen eine umfassende qualitative und quantitative Untersuchung der vorhandenen Daten vorgenommen.


In einem ersten Schritt führten die Mitglieder der Gruppe eine statistische Analyse aller PGIs und PDOs durch, die zwischen 1996 und 2019 im Rahmen des EU-Schutzsystems für landwirtschaftliche Erzeugnisse und Lebensmittel registriert wurden. Die Datenquelle für diese Analyse war das sogenannte “Single Document”. Als Kern jedes Antrags auf Eintragung einer Geographischen Herkunftsangabe enthält dieses unter anderem eine Definition der geographischen Region, eine Beschreibung der Produktionsmethode und Details über den sogenannten “Origin Link” – den kausalen Zusammenhang zwischen dem Produkt und der geographischen Region. Weitergehende Untersuchungen zu Backwaren und Kartoffeln bezogen im Rahmen einer qualitativen Auswertung auch die komplette Spezifikation ein. Die Untersuchung ergab eine Verbesserung der Qualität und Genauigkeit der angegebenen Informationen, insbesondere über die Verbindung zwischen Region und Produkt.


Obwohl die Anforderungen an den Erhalt eines GI-Schutzes und die wichtigsten Verfahrensregeln innerhalb der EU vereinheitlicht wurden, sind auch die nationalen Behörden weiter in den Registrierungsprozess einbezogen. Weitere Untersuchungen der nationalen Regeln und zugehörigen Verfahren in ausgewählten Ländern ergaben, dass nationale Ansätze und Eigenheiten die Funktionsfähigkeit eines einheitlichen Schutzsystems beeinträchtigen könnten.


Im Jahr 2018 kündigte die Europäische Kommission an, das gegenwärtige GI-Schutzsystem auf nicht-landwirtschaftliche Produkte ausweiten zu wollen. Für diese existieren Schutzmöglichkeiten bislang nur auf nationaler Ebene. Im Vorgriff auf einen Vorschlag der EU untersuchten die Forschenden einige der nationalen Schutzsysteme um herauszufinden, ob das gegenwärtige EU-System mit seinen PGIs und PDOs auch für nicht-landwirtschaftliche Produkte passend sein könnte. Die Erkenntnisse deuten darauf hin, dass eine Ausweitung des bestehenden Systems – mit einigen prozessualen Anpassungen – funktionieren könnte.


In einem nächsten Schritt ist – in Zusammenarbeit mit der Universität von Alicante und der EUIPO – eine Untersuchung der Schnittstelle zwischen dem GI-System und dem Markensystem, inklusive Kollektivmarken und Gütesigel, geplant.


Untersuchung der GI-Systeme in Lateinamerika


Wegen ihres Potenzials, die wirtschaftliche und soziale Entwicklung in Produktionsregionen zu fördern, spielen Systeme zur Qualitätsdifferenzierung für lateinamerikanische Länder eine besonders wichtige Rolle. Eine herkunftsbasierte Produktion, einschließlich des verarbeitenden Gewerbes, des Kunsthandwerks und insbesondere der Lebensmittelproduktion, ist für ihre Wirtschaft von wesentlicher Bedeutung, allem voran für kleine Produzenten, Handwerker und Kleinbauern. Doch obwohl sich viele Produkte aus Lateinamerika für einen Schutz durch Geographische Herkunftsangaben gut eignen, erfordert die Integration von lokalen Bedürfnissen, kulturellen Traditionen und sozialen Aspekten weitere Forschung. Auch andere verfügbare Kennzeichen zu identifizieren sowie deren Schnittstellen, Stärken und Schwächen zu untersuchen, würde dabei helfen, das System als Ganzes besser zu verstehen.


Die Tatsache, dass der Schutz Geographischer Herkunftsangaben zunehmend Gegenstand von Freihandelsabkommen unter Beteiligung lateinamerikanischer Länder ist, könnte darüber hinaus deren Handlungsspielraum für die Festlegung nationaler und regionaler Ansätze beschränken. Eine weitere Untersuchung von Verpflichtungen aus Freihandelsabkommen könnte dementsprechend Herausforderungen bei der Umsetzung auf nationaler Ebene aufzeigen.


Im Rahmen der 2018 ins Leben gerufenen Initiative “Smart IP for Latin America” (SIPLA) des Instituts ergab sich deswegen schnell, dass Geographical Indications ein Gebiet sind, das weiterer Erforschung bedarf. Erster Schritt im Rahmen des SIPLA-Projekts “Collective Distinctive Signs” war deswegen eine Untersuchung von GIs in Form einer rechtsvergleichenden Bewertung der Systeme neun ausgewählter Staaten in der Region. Angesichts der Fülle an Informationen, die für die Forschenden für ihre Arbeit von Interesse sind, hat das SIPLA-Team einen umfassenden Fragebogen entworfen, der von Vertretern aus Argentinien, Brasilien, Chile, Kolumbien, Costa Rica, Mexiko, Paraguay, Peru und Uruguay beantwortet wurde. Der Fragebogen rückte insbesondere die Schutzsysteme für Geographische Herkunftsangaben sowie auch andere bestehend Kennzeichen in den Fokus. Er enthielt Fragen zu nationalen, regionalen und lokalen Rechtsvorschriften, sofern entsprechende Regeln existieren, sowie zur Rechtsprechung.


Auf Basis der Informationen, die durch den Fragebogen gewonnen wurden sowie durch die Analyse der Freihandelsabkommen, denen die ausgewählten Länder angehören, wurde ein umfassender “General Comparative Report” erstellt. Schließlich wurden in den verschiedenen nationalen und regionalen Systemen gemeinsame Elemente identifiziert. Aus diesen Elementen ergeben sich mindestens zwei mögliche Forschungsbereiche, die in Zukunft weiterentwickelt werden sollten. Der erste bezieht sich auf weitere Kennzeichnungsmöglichkeiten neben Geographical Indications – insbesondere Zeichen für den kollektiven Gebrauch, von denen vor allem Kleinbauern und kleinere Produzenten profitieren können. Der zweite befasst sich mit der weiteren Erforschung des Schutzniveaus von Geografischen Herkunftsangaben mit Fokus auf die Einbeziehung von Standards aus dem TRIPS-Abkommen und Verpflichtungen aus Freihandelsabkommen auf nationaler und regionaler Ebene.


Ausführliche Informationen über die Forschungsinitiative finden Sie im ePaper des aktuellen Tätigkeitsberichts.

Studie  |  29.07.2021

Welche Patente sind wirklich standardessenziell? Eine automatisierte semantikgestützte Analyse

Die Identifizierung von standardessenziellen Patenten (SEPs) stellt eine erhebliche Herausforderung für Forschende, Praktiker und politische Entscheidungsträger dar. In einer neuen Studie wird ein semantikgestützter Ansatz zur Bewertung der geltend gemachten Standardessenzialität von deklarierten Patenten vorgestellt.

Automatisierte Analyse der Textähnlichkeit zwischen Patenten und Standards

SEPs spielen für die technische Koordination in Standardisierungsorganisationen eine zunehmend wichtige Rolle. Es bleibt jedoch unklar, ob ein deklariertes Patent wirklich standardessenziell ist. Strategische Anreize können Patentinhaber in ihrer Entscheidung beeinflussen, Standardessenzialität geltend zu machen. Dies kann zu rechtlichen und vertraglichen Konflikten während der Standardsetzung und den anschließenden Lizenzverhandlungen führen. Die neue Studie von  Lorenz Brachtendorf, Fabian Gaessler und Dietmar Harhoff befasst sich mit dieser Problematik und stellt eine automatisierte, semantikgestützte Methode zur Bestimmung der Standardessenzialität von Patenten vor.


Die manuelle Prüfung von Patenten auf Standardessenzialität erfordert ein hohes Maß an technischem Wissen und zeitlichem Aufwand. Im Gegensatz dazu ist die vorgestellte Methode einfach und kostengünstig in der Anwendung. Der skalierbare, objektive und replizierbare Ansatz ermöglicht vielfältige praktische Anwendungen. Die Autoren veranschaulichen die Nützlichkeit der Methode bei der Bestimmung des Anteils tatsächlicher SEPs in Patentportfolios von Firmen für mehrere globale Mobilfunkstandards. Die Ergebnisse offenbaren erhebliche Unterschiede auf Unternehmensebene, die statistisch signifikant und ökonomisch bedeutsam sind.


Neben praktischen Anwendungen kann die Methode auch Erkenntnisse von politischer Relevanz liefern. So kann beispielsweise untersucht werden, ob bestimmte politische Maßnahmen ihr Ziel erreichen, patentbedingte Konflike im Standardisierungs- und Umsetzungsprozess abzuschwächen.


Diese Studie leistet einen wichtigen Beitrag zur Vereinfachung der Ex-ante-Koordinierung zwischen Technologieanbietern und Implementierern von technischen Standards. Dies ist von besonderer Bedeutung, da standardisierte Lösungen für die Informations- und Kommunikationstechnologien zu einem wichtigen Aspekt der technologischen Innovation geworden sind und in vielen Branchen unserer Wirtschaft allgegenwärtig sind. Die Studie wird demnächst präsentiert auf der USPTO 14th Annual Conference on Innovation Economics sowie auf der EPIP 2021.


Zum Projektposter (in englischer Sprache).


Zur ausführlichen Projektbeschreibung (in englischer Sprache) im Tätigkeitsbericht 2018 - 2020.


Hören Sie den EPO Podcast – Talk Innovation “Research into Patents – Drilling Deeper on the Standard Essentiality of Patents” mit Dietmar Harhoff (in englischer Sprache).


Publikationen


Brachtendorf, Lorenz; Gaessler, Fabian; Harhoff, Dietmar (2020). Approximating the Standard Essentiality of Patents – A Semantics-Based Analysis. Final Report for the European Patent Office Academic Research Programme.


Brachtendorf, Lorenz; Gaessler, Fabian; Harhoff, Dietmar (2020). Truly Standard-Essential Patents? A Semantics-Based Analysis. CEPR Discussion Paper No. DP14726 und CRC Discussion Paper No. 265.

Forschungsgruppe „Regulierung der digitalen Wirtschaft“, Position Statement „Artificial Intelligence and Intellectual Property Law“ Max Planck Institut für Innovation und Wettbewerb, Reto M. Hilty, Josef Drexl, Daria Kim
Studie  |  21.04.2021

Forschungsgruppe erarbeitet Analyse zu Künstlicher Intelligenz und IP-Rechten

Der zunehmende Einsatz von Künstlicher Intelligenz (KI) hat das Potenzial, die Rahmen­bedingungen des bestehenden IP-Systems zu verändern. In einer ausführlichen Untersuchung gibt eine Forschungsgruppe der juristischen Abteilungen des Instituts einen breit angelegten Überblick über Fragestellungen, die sich an der Schnittstelle von KI und Immaterialgüterrechten ergeben.

Forschungsgruppe „Regulierung der digitalen Wirtschaft“, Position Statement „Artificial Intelligence and Intellectual Property Law“ Max Planck Institut für Innovation und Wettbewerb, Reto M. Hilty, Josef Drexl, Daria Kim
Die Forschungsgruppe „Regulierung der digitalen Wirtschaft“ untersucht die Auswirkungen Künstlicher Intelligenz auf das Immaterialgüterrecht, Foto: Myriam Rion

Je stärker Künstliche Intelligenz (KI) die digitale Wirtschaft und Innovation prägt, desto nachdrücklicher stellen sich Fragen nach dem Zusammenspiel von KI und Immaterialgüterrechten. Denn um ihr Potential zur Förderung von Innovation und Wohlstand wirklich ausschöpfen zu können, braucht KI einen geeigneten rechtlichen Rahmen, der sich auch auf Schutzrechte erstreckt.


Bislang fokussiert sich die politische und rechtliche Diskussion dazu primär auf den Output, also das, was durch den Einsatz Künstlicher Intelligenz oder zumindest unterstützt durch sie generiert wird. Um beurteilen zu können, inwieweit das bestehende IP-System seine Funktion unter den Rahmenbedingungen dieser rasant voranschreitenden Technologie noch erfüllen kann, ist jedoch eine umfassendere Sichtweise notwendig. Zu berücksichtigen sind insbesondere die einzelnen Schritte eines KI-getriebenen Innovationszyklus, in denen IP-Rechte eine Rolle spielen können.


Breit angelegte Analyse


Vor diesem Hintergrund hat die Forschungsgruppe „Regulierung der digitalen Wirtschaft“ der juristischen Abteilungen des Instituts unter Leitung der beiden Direktoren Josef Drexl und Reto M. Hilty eine umfassende Analyse erarbeitet. Das Papier identifiziert mögliche Fragestellungen, die sich an der Schnittstelle zwischen Künstlicher Intelligenz und IP-Rechten ergeben können, und zeigt verschiedene Richtungen auf, wie Antworten gefunden werden könnten.


Hinsichtlich der Gliederung orientiert sich die Analyse an den drei Ebenen, die im Hinblick auf Innovations- oder auch Kreationsprozesse auseinanderzuhalten sind. Zunächst werden Fragestellungen im Hinblick auf den für die Entwicklung von KI-Systemen erforderlichen Input untersucht. Der zweite Teil des Papiers befasst sich mit möglichem Schutz von KI als Tool. Der dritte Teil rückt Schutzrechte für KI-gestützten oder KI-generierten Output in den Mittelpunkt.


Europäisches Immaterialgüterrecht im Fokus


Die Untersuchung konzentriert sich auf das materielle europäische Immaterialgüterrecht, insbesondere auf das Urheber-, Patent- und Geschmacksmusterrecht, sowie den sui-generis-Schutz für Datenbanken und den Schutz von Geschäftsgeheimnissen. Letztere können schon auf der Inputseite eine Rolle spielen, vor allem aber auch bezogen auf KI-Tools, zumal die traditionellen IP-Systeme wenig auf die dort zu berücksichtigenden Besonderheiten ausgerichtet erscheinen. Schutzrechte spielen aber vor allem mit Bezug darauf eine Rolle, was unter Einsatz von KI generiert wird; dazu gehören auch Aspekte wie die Zuweisung von Rechten oder ggf. des Schutzumfangs.


Das Papier baut auf den aktuellen Stand jener Erkenntnisse auf, welche die Forschungsgruppe bereits in früheren Untersuchungen, insbesondere zu technischen Zusammenhängen, erarbeitet hat. Gestützt darauf werden nun jene Fragen eruiert, die weitere – insb. auch interdisziplinäre – Forschung erfordern werden. Insgesamt betont das Papier die Notwendigkeit einer holistischen Sichtweise, dies allem voran mit Blick darauf, dass bei IP-getriebener Innovation oder Kreation verschiedene IP-Rechte eine Rolle spielen und sich überlagern können.


Das komplette Paper “Artificial Intelligence and Intellectual Property Law” finden Sie hier.

Studie  |  26.02.2021

Finde Deinen akademischen Doppelgänger! Wie man Kontrollgruppen von Forschenden mit Hilfe von Sosia ermittelt

Ökonometrische Analysen in der Wissenschafts- und Innovationsökonomie erfordern häufig Kontroll­gruppen. Die Ermittlung solcher Vergleichsgruppen verlangt jedoch oft einen gewaltigen Datenaufwand. Das Python-Paket sosia vereinfacht und automatisiert die Suche in der Scopus-Datenbank.

Michael E. Rose und Stefano H. Baruffaldi

Ökonometrische Analysen in der Wissenschafts- und Innovationsökonomie erfordern häufig Kontrollgruppen. Diese Kontrollgruppen müssen ähnliche beobachtbare Merkmale aufweisen wie eine bestimmte Gruppe von Forschenden, die von Interesse sind. Es gibt spezielle Methoden und Werkzeuge, die beim Abgleich helfen können. Die Ermittlung solcher Vergleichsgruppen erfordert jedoch oft einen gewaltigen Datenaufwand, der bei Gruppen, die sich über mehrere Bereiche, Institutionen oder Länder erstrecken, unüberwindbar werden kann. Das Python-Paket sosia – italienisch für Doppelgänger – soll die Suche nach vergleichbaren Forschenden in der Scopus-Datenbank vereinfachen und automatisieren.


Direkt zur Publikation von

Michael E. Rose und Stefano H. Baruffaldi
Finding Doppelgängers in Scopus: How to Build Scientists Control Groups Using Sosia
Max Planck Institute for Innovation & Competition Research Paper No. 20-20

Studie  |  28.07.2020

Künstliche Intelligenz identifizieren und messen – Das Unmögliche möglich machen

Forscher und Forscherinnen des Instituts und der OECD haben eine neue Studie dazu publiziert, wie sich mit KI einher­gehende Ent­wicklungen in Wissen­schaft, Algo­rithmen und Techno­logien identi­fizieren und messen lassen. Anhand von Infor­mationen aus wissen­schaft­lichen Publikationen, Archiven für Open-Source-Software (OSS) und Patenten stellen sie fest, dass KI-bezogene Ent­wick­lungen in den letzten Jahren deut­lich zu­genom­men haben. China spielt im Bereich KI eine zu­nehmend wichtige Rolle.  

Künstliche Intelligenz (KI) ist ein Begriff, der gemein­hin zur Be­schreibung von Maschinen und Software verwendet wird, die menschen­ähnliche kognitive Funktionen aus­führen (z.B. Lernen, Ver­stehen, Schluss­folgern und Inter­agieren). Von KI werden weit­reichende wirtschaft­liche Aus­wirkungen erwartet, hat sie doch das Potenzial, die Bereiche Produktion und Dienst­leistung zu re­volutio­nieren, das Ver­halten von Wirtschafts­akteuren zu be­ein­flussen und Volks­wirt­schaften und Gesell­schaften zu trans­formieren.


Das enorme Leistungs­vermögen dieser in­zwischen als All­zweck­tech­nologie geltenden Ver­fahren hat die OECD-Länder und G20-Staaten dazu ver­anlasst, sich auf Schlüssel­prinzipien zu ver­ständigen, die die Ent­wicklung einer ethischen und vertrauens­würdigen KI fördern sollen. Die praktische Um­setzung der­artiger Prinzipien erfordert jedoch ein ein­heit­liches Ver­ständnis dessen, was KI ist und woraus sie besteht, sowohl im Hin­blick auf wissen­schaftliche und techno­logische Ent­wicklungen als auch auf mögliche An­wen­dungen.


Um den Heraus­forderungen begegnen zu können, die mit der Ein­grenzung einer so kom­plexen Thematik ver­bunden sind, schlägt die Studie eine operationelle Definition von KI vor, die auf der Iden­tifizierung und Messung von Ent­wicklungen in Wissen­schaft, Algo­rithmen und Techno­logien basiert, die mit KI ein­hergehen. Die Analyse stützt sich dazu auf Infor­mationen, die in wissen­schaft­lichen Ver­öffentl­ichungen, Open-Source-Software und Patenten enthalten sind.


Wissenschaftlicher Ansatz der Studie


Der dreigleisige Ansatz der Studie setzt auf einer Aus­wahl etablierter biblio­metrischer und patent­basierter Methoden auf und wird durch ein ex­perimen­telles Ver­fahren maschinellen Lernens (ML) ergänzt, das auf eigens dafür ge­sammelten Open-Source-Software-Daten basiert:
 

  • Die Identifizierung von hinter KI-Ent­wicklungen stehender Wissen­schaft baut auf einem zwei­stufigen biblio­metrischen Ansatz auf, bei dem eine erste Gruppe von KI-relevanten Schlüssel­wörtern aus wissen­schaft­lichen Publikationen extrahiert wird, die in der Scopus®-Daten­bank des Wissen­schafts­verlags Elsevier unter KI klassifiziert sind. Das Er­gebnis wird dann durch Text-Mining-Ver­fahren und Experten­validierungen er­gänzt und ver­feinert.
  • Da KI letzt­lich in Form von Algo­rithmen imple­mentiert wird, ver­wenden die Autorinnen und Autoren Infor­mationen über so­genannte Software-Commits (d.h. Beiträge), die auf GitHub (einer Hosting-Plattform) ver­öffentlicht werden, um KI-bezogene Software-Ent­wicklungen und ‑anwendungen zu verfolgen. Solche Daten werden mit Infor­mationen aus wissen­schaft­lichen Publikationen kombiniert, die auf wichtigen KI-Konferenzen präsentiert werden, um zentrale KI-Repositorien zu identifizieren. Maschinelle Lern­ver­fahren, die anhand von Infor­mationen für den so identifizierten Kern­satz trainiert werden, lassen sich zur Unter­suchung sämt­licher Software-Beiträge in GitHub eingesetzen, um alle KI-bezogenen Repositorien zu erkennen.
  • In Patent­daten ent­haltene Infor­mationen dienen der Identifizierung und Ab­bildung KI-bezogener Erfindungen und neuer techno­logischer Ent­wicklungen, in die KI-bezogene Kom­ponenten ein­gebettet sind.

Ausgewählte Ergebnisse der Studie
 

  • Die Autorinnen und Autoren stellen eine beschleunigte Zu­nahme der Zahl von Ver­öffent­lichungen im Bereich KI zu Beginn des Jahr­tausends fest, gefolgt von einem stetigen Wachs­tum von durch­schnitt­lich 10% pro Jahr bis 2015, vor einer er­neuten Er­höhung der Zahl von Publikationen mit einem Anstieg von 23% pro Jahr. Der Anteil der KI-bezogenen Publikationen an den Gesamt­publikationen stieg bis 2018 auf über 2,2% aller Publikationen an.
  • 28% der in den Jahren 2016 bis 2018 weltweit ver­öffentl­ichten KI-bezogenen wissen­schaft­lichen Publikationen stammen von Autorinnen und Autoren mit Affi­liationen in China. Im Zeit­verlauf ist der Anteil von KI-Publikationen, die aus den EU-28, den Vereinigten Staaten und Japan stammen, im Ver­gleich zum vor zehn Jahren beo­bachteten Niveau zurück­gegangen.
  • Seit 2014 ist die Zahl der Open-Source-Software-Repositorien mit KI-Bezug etwa drei­mal so stark gewachsen wie die sonstiger Open-Source-Software.
  • Nach 2015 ist ein deut­licher Anstieg des Anteils von KI-bezogenen Er­fin­dungen an der Gesamt­zahl von Er­fin­dungen zu ver­zeich­nen. Im Jahr 2017 betrug dieser Anteil mehr als 2,3%.
  • “Neural networks/Neuronale Netzwerke” und “image processing/Bildverarbeitung” sind die am häufigsten ge­brauchten Begriffe, die in Kurz­beschrei­bungen von Patenten mit KI-Bezug auf­tauchen.
  • Bei KI-bezogenen Patenten hat sich der Bei­trag von Er­findungen aus China seit Mitte der ersten Dekade dieses Jahr­tausends mehr als ver­sechsfacht und erreichte Mitte der zweiten Dekade fast 13%.


Mehr Er­gebnisse und detaillierte Infor­mationen in der Publikation:


Stefano Baruffaldi, Brigitte van Beuzekom, Hélène Dernis, Dietmar Harhoffi, Nandan Rao, David Rosenfeld, Mariagrazia Squicciarini (2020).
Identifying and Measuring Developments in Artificial Intelligence: Making the Impossible Possible.
OECD Science, Technology and Industry Working Papers No. 2020/05.


Stefano Baruffaldi ist Affiliated Research Fellow in der Abteilung Innovation and Entrepreneurship Research und Assistant Professor an der University of Bath.

Dietmar Harhoff ist Direktor am Max-Planck-Institut für Innovation und Wettbewerb.