Abholzung von Wäldern
Studie  |  14.11.2024

Klimawirkung von Kompensationszertifikaten wird erheblich überbewertet

Die Emissionsminderungen aus Klimaschutzprojekten sind deutlich niedriger als angegeben. Das zeigt eine neue Metastudie, die nun im Fach­journal Nature Communications erschienen ist. Dafür hat Benedict Probst, Leiter des Net Zero Lab am Institut, über 60 empirische Studien systematisch ausgewertet. Das Ergebnis: Es gibt große Mängel bei der Qualität von Kompen­sations­zertifikaten.

Abholzung von Wäldern
Foto: Adobe Stock

Kohlenstoffmärkte spielen eine wichtige Rolle in den Klimastrategien von Unternehmen und Staaten. Sie ermöglichen den Kauf und Verkauf von Emissionsgutschriften. Diese Gutschriften repräsentieren eine bestimmte Menge an Kohlenstoffemissionen (CO2), die durch Umweltprojekte, wie Waldschutz oder die Vernichtung schädlicher Gase, reduziert oder vermieden wurden. Solche Gutschriften sind wichtig, weil sie Unternehmen und Staaten helfen, ihre Klimaziele zu erreichen, indem sie einen Teil ihrer eigenen Emissionen ausgleichen.

Das Problem

Die große Frage ist, ob diese Emissionsgutschriften wirkliche Emissionsreduzierungen widerspiegeln oder ob sie nur eine Scheinwirkung haben. Helfen diese Projekte tatsächlich der Umwelt oder zahlen wir für etwas, das keinen wirklichen Nutzen bringt? Kohlenstoffmarktprogramme ermöglichen es Projektentwicklern, durch Emissionsminderungsprojekte Kohlenstoffgutschriften zu erzielen. In mehreren Studien wurden jedoch Bedenken hinsichtlich der Umweltintegrität geäußert. Bisher fehlte eine systematische Bewertung.

Die neue Studie und die Ergebnisse

Die in Nature Communications erschienene neue Metastudie fasst nun 14 Studien über 2.346 Klimaschutzprojekte und 51 Studien über ähnliche Maßnahmen zusammen, für die keine Emissionsgutschriften ausgegeben wurden. Alle betrachteten Studien stützen sich auf experimentelle Methoden oder strenge Beobachtungsmethoden. Die Analyse deckt damit ein Fünftel der bisher ausgegebenen Emissionsgutschriften ab, was fast einer Milliarde Tonnen CO2-Emissionen entspricht.

Die Ergebnisse der Analyse zeigen, dass weniger als 16 % der für die untersuchten Projekte ausgestellten Emissionsgutschriften eine tatsächliche Emissionsreduzierung darstellten. Konkrete Beispiele hierfür sind:


  • Bei Kochherdprojekten, bei denen herkömmliche Herde durch sauberere ersetzt werden, entsprachen die tatsächlichen Emissionsminderungen nur 11 % der ausgegebenen Emissionsgutschriften.
  • Bei der Reduktion des starken Treibhausgases SF6 erreichten die tatsächlichen Emissionsminderungen nur 16 % der ausgegeben Emissionsgutschriften.
  • Die Vermeidung der Abholzung von Wäldern kam auf einen Wert von 25 %.
  • Die Verringerung des schädlichen Gases HFC-23 schnitt mit einem Wert von 68 % vergleichsweise gut ab.

Bezüglich der Windenergie zeigen die Daten, dass die Projekte vermutlich auch ohne den Verkauf von Emissionsgutschriften umgesetzt worden wären und dass somit die Ausgabe der Gutschriften zu keinem zusätzlichen Klimaschutz geführt hat. Auch verbesserte Waldbewirtschaftung wurde in Referenzregionen ohne Zugang zu Emissionsgutschriften im gleichen Maße umgesetzt wie auf Flächen, die von Emissionsgutschriften profitiert haben.

Bei Projekten zur Vermeidung der Treibhausgase Trifluormethan (HFKW-23) und Schwefelhexafluorid (SF6) in der Industrie zeigen die Daten aber, dass ab dem Zeitpunkt, ab dem die Anlagen Zertifikate für Emissionsminderungen erhalten konnten, mehr Treibhausgase produziert wurden.

Bessere Regeln für Ausgabe von Zertifikaten dringend nötig

Dr. Benedict Probst, Leiter des Net Zero Lab und Senior Research Fellow am Max-Planck-Institut für Innovation und Wettbewerb betont: „Es müssen dringend bessere Regeln für die Ausgabe von Emissionsgutschriften geschaffen werden. Alle Klimaschutzprojekttypen weisen systematische Qualitätsprobleme auf. Bei der Quantifizierung der Emissionsminderungen sollte unbedingt nachgebessert werden.“

Koautor Dr. Lambert Schneider vom Öko-Institut in Berlin verweist darauf, dass es zu viele Spielräume bei der Berechnung von Emissionsminderungen gibt: „Die Regeln der Kohlenstoffmarktprogramme räumen den Projektentwicklern oft zu viel Flexibilität ein. Das kann dazu führen, dass unrealistische Annahmen getroffen oder ungenaue Daten verwendet werden, die zu einer Überschätzung der Reduktionen führen.“

Um die Qualität der Zertifikate zu verbessern, seien vor allem die Kohlenstoffmarktprogramme in der Pflicht, betonen die Autoren. Sie sollten ihre Ansätze zur Prüfung von Projekten und der Berechnung von Emissionsminderungen verbessern. Zentral sei dabei, dass konservativere Annahmen getroffen werden und die neuesten wissenschaftlichen Erkenntnisse als Grundlage dienen.

Die gesellschaftliche Bedeutung der Studie

Die großen Klimaziele sind in Gefahr: Wenn Emissionsgutschriften nicht zu einer echten Emissionsreduzierung führen, machen wir im Kampf gegen den Klimawandel nicht die Fortschritte, die wir zu erzielen glauben.

Wir riskieren ein Vertrauensproblem: Regierungen und Unternehmen verlassen sich auf Emissionsgutschriften, um ihre Klimazusagen zu erfüllen. Wenn diese Gutschriften nicht wirksam sind, könnte dies das Vertrauen in die Kohlenstoffmärkte untergraben, die als ein wichtiges Instrument zur Bekämpfung der globalen Erwärmung gelten.

Potenzielles Greenwashing muss vermieden werden: Einige Unternehmen könnten unwirksame Emissionsgutschriften nutzen, um zu behaupten, sie seien „klimaneutral“, ohne ihre Emissionen tatsächlich zu reduzieren, und damit Verbraucher und Regulierungsbehörden in die Irre führen.

Das Fazit

Die Studie zeigt, dass Kohlenstoffmärkte nicht die Wirkung erzielen, die sie sollen und die wir dringend brauchen. Es gibt Reformbedarf. Um wirklich etwas zu bewirken, müssen die Systeme für Emissionsgutschriften grundlegend geändert werden, um sicherzustellen, dass sie tatsächlich zur Eindämmung des Klimawandels beitragen. Wenn wir diese Systeme nicht reformieren, laufen wir Gefahr, die Klimaziele zu verfehlen und Unternehmen dabei zu erlauben, sich umweltfreundlicher zu geben, als sie tatsächlich sind.

Über das Net Zero Lab


Der Umweltökonom Benedict Probst leitet seit Mai 2024 eine unabhängige Max-Planck-Forschungs­gruppe am Max-Planck-Institut für Innovation und Wettbewerb in München. Ziel des Net Zero Lab ist, die Entwicklung von grünen Technologien zu beschleunigen, die für den Ersatz fossiler Brennstoffe in der Industrie entscheidend sind, sowie von Technologien, die CO2 direkt aus der Luft entfernen.


Zum Net Zero Lab: https://www.netzerolab.science/

Direkt zur Studie:

Probst, Benedict S., et al. (2024). Systematic assessment of the achieved emission reductions of carbon crediting projects, Nature Communications, 15, 9562. Verfügbar unter https://doi.org/10.1038/s41467-024-53645-z


Alle Daten in filterbaren Grafiken: https://www.carboncredits.fyi/


Weitere an der Studie beteiligte Wissenschaftler*innen und Institutionen:

Malte Toetzke (1,4), Andreas Kontoleon (3), Laura Díaz Anadón (3,5), Jan C. Minx (6,7), Barbara K. Haya (8), Philipp A. Trotter (10,11), Thales A.P. West (3,12), Annelise Gill-Wiehl (13), Volker H. Hoffmann (2)


(1) Net Zero Lab, Max Planck Institute for Innovation and Competition, (2) Group for Sustainability and Technology, ETH Zurich, (3) Department of Land Economy, Centre for Environment, Energy, and Natural Resource Governance, University of Cambridge, (4) Public Policy for the Green Transition, Technical University of Munich, (5) Harvard Kennedy School, Harvard University, (6) Mercator Research Institute on Global Commons and Climate Change, (7) Priestley International Centre for Climate, School of Earth and Environment, (8) Goldman School of Public Policy, University of California, Berkeley, (9) Oeko-Institut, Berlin, (10) Schumpeter School of Business and Economics, University of Wuppertal, (11) Smith School of Enterprise and the Environment, University of Oxford, (12) Institute for Environmental Studies (IVM), Vrije Universiteit Amsterdam, (13) Energy & Resources Group, University of California, Berkeley.

Symbolbild für ein Modell maschinellen Lernens, das Patentdokumente nach Ähnlichkeiten durchsucht
Studie  |  10.10.2024

NBER-Studie bestätigt starke Performance des vom Institut entwickelten PaECTER-Modells zur Patentanalyse

Eine kürzlich vom National Bureau of Economic Research (NBER) veröffentlichte Studie bestätigt die starke Leistung von PaECTER, einem Patentanalysemodell, das von einem Forschungsteam am Max-Planck-Institut für Innovation und Wettbewerb entwickelt wurde. Das Modell lag in einem Vergleich mit anderen Modellen bei Aufgaben, die für die Patentprüfung und Innovationsforschung von wesentlicher Bedeutung sind, an der Spitze.

PaECTER (Patent-Level Representation Learning Using Citation-Informed Transformers) wurde von Mainak Ghosh, Sebastian Erhardt, Michael E. Rose, Erik Buunk und Dietmar Harhoff entwickelt und nutzt fortschrittliche transformer-gestützte Techniken maschinellen Lernens, die mit Patent­zitations­daten trainiert wurden. Das Modell wurde speziell entwickelt, um die komplexen Herausforderungen der Analyse von Patenttexten zu meistern, und bietet erhebliche Verbesserungen bei der Identifizierung und Kategorisierung ähnlicher Patente, was es sowohl für die Patentprüfung als auch Innovationsforschung besonders wertvoll macht.


Das neue NBER-Arbeitspapier „Patent Text and Long-Run Innovation Dynamics: The Critical Role of Model Selection“ vergleicht PaECTER eingehend mit anderen Sprach­verarbei­tungs­modellen (NLP-Modellen). Die Autor*innen Ina Ganguli (University of Massachusetts Amherst), Jeffrey Lin (Federal Reserve Bank of Philadelphia), Vitaly Meursault (Federal Reserve Bank of Philadelphia) und Nicholas Reynolds (University of Essex) wogen die Leistungen der Modelle bei Patentinterferenz-Aufgaben ab, wo mehrere Erfinder Patentansprüche für ähnliche Erfindungen erheben.


Die Studie kam zu dem Schluss, dass PaECTER im Vergleich zu herkömmlichen Modellen wie TF-IDF (Term Frequency – Inverse Document Frequency: ein Maß zur Bewertung der Relevanz eines Wortes in einem Dokument innerhalb einer Sammlung von Dokumenten) die Zahl falsch-positiver Ergebnisse erheblich reduziert und die Effizienz steigert. Die Studie zeigte auch die Fähigkeiten von PaECTER im Vergleich zu anderen modernen Modellen wie GTE und S-BERT (Generalized Text Embedding und Sentence-BERT als Methoden zur Repräsentation von Texten in Form von numerischen Vektoren, die semantische Informationen über Wörter oder ganze Sätze erfassen). Während PaECTER bei expertengesteuerten Aufgaben wie der Identifizierung von Interferenzen außerordentlich gut abschnitt, behauptete es sich auch bei allgemeineren Aufgaben der Patentklassifizierung, was seine vielseitige Einsetzbarkeit weiter unterstreicht.


„Wir freuen uns, dass die Leistung von PaECTER durch die NBER-Studie validiert wurde, die seine Stärken bei der Patentähnlichkeitsanalyse aufzeigt und seine Rolle als zuverlässiges Werkzeug für alle, die im Bereich Innovation und geistiges Eigentum arbeiten, bestätigt“, sagt Mainak Ghosh, einer der Entwickler von PaECTER. „Diese unabhängige Validierung bestärkt seine Relevanz im Bereich der Patentprüfung.“


Das PaECTER-Modell ist auf der Plattform Hugging Face verfügbar und damit für Forschende, politische Entscheidungsträger*innen und Patentfachleute weltweit zugänglich. Seine robuste Performance, wie in der NBER-Studie nachgewiesen, unterstreicht seinen Wert im Hinblick auf eine verbesserte Verarbeitung von Patentdaten und trägt zu einer genaueren und effizienteren Analyse von Patentinnovationen über die Zeit bei. Bisher wurde PaECTER mehr als 1,4 Millionen Mal heruntergeladen. 


Mehr Infos:


PaECTER auf Hugging Face


Ganguli, Ina; Lin, Jeffery; Meursault, Vitaly; Reynolds, Nicholas F. (2024). Patent Text and Long-Run Innovation Dynamics: The Critical Role of Model Selection (No. w32934). National Bureau of Economic Research. Verfügbar unter https://www.nber.org/papers/w32934


Ghosh, Mainak; Erhardt, Sebastian; Rose, Michael; Buunk, Erik; Harhoff, Dietmar (2024). PaECTER: Patent-Level Representation Learning Using Citation-Informed Transformers, arXiv preprint 2402.19411. Verfügbar unter https://arxiv.org/abs/2402.19411

UNO-Gebäude in Wien
Verschiedenes  |  09.10.2024

Vereinfachung von automatisierten Vertragsabschlüssen durch UN-Modellgesetz

UNCITRAL, die Kommission der Vereinten Nationen für internationales Handelsrecht, hat ein Modellgesetz vorgelegt, das automatisierte Vertragsabschlüsse auf elektronischem Weg international vereinheitlichen und erleichtern soll. Jörg Hoffmann, Wissenschaftler am Institut, hat als Mitglied der Arbeitsgruppe Elektronischer Geschäftsverkehr in mehreren Diskussionsrunden an der Ausarbeitung des Gesetzes mitgewirkt.

Sitzungssaal bei den Vereinten Nationen in Wien mit MPI-Aufsteller
Sitzungssaal bei den Vereinten Nationen. Foto: Jörg Hoffmann
UNO-Gebäude in Wien
UNO-Gebäude in Wien. Foto: Jörg Hoffmann

Das Institut ist aufgrund seines Forschungsschwerpunktes im Bereich der Künstlichen Intelligenz (KI) von der UNCITRAL offiziell anerkannt. Dabei half der technologiespezifische Forschungs­ansatz, den das Institut vor allem in Schaffungs- und Kreations­prozessen im IP-Bereich genauer verfolgt, in den Vorarbeiten und in der finalen Fassung, die von der UNCITRAL-Kommission diesen Sommer in New York auf ihrer 57. Sitzung angenommen wurde.


Das Modellgesetz bietet einen rechtlichen Rahmen für die Nutzung von Automatisierung in grenzüberschreitenden Verträgen, einschließlich der Nutzung von KI-Technologien und “Smart Contracts”, sowie für automatisierte Transaktionen zwischen Maschinen. Es soll bestehende Gesetze zu elektronischen Ver­trags­schlüssen ergänzen und vervollständigen, insbesondere solche, die auf anderen UNCITRAL-Texten zum elektronischen Geschäftsverkehr basieren. Diese wurden bereits in über hundert Rechtsordnungen weltweit verabschiedet. Das Modellgesetz ist der erste Rechtsakt, der aus den UNCITRAL-Sondierungsarbeiten zu Rechtsfragen der digitalen Wirtschaft und des digitalen Handels hervorgegangen ist. Es soll bestehende Rechtsunsicherheiten und Transaktionskosten minimieren um dadurch KI-getriebene Inno­vationen zu fördern. Die Arbeiten zu Datenverträgen und zur Distributed-Ledger-Technologie (Blockchain) schreiten dabei weiter voran.


Über UNCITRAL
Die Kommission der Vereinten Nationen für internationales Handelsrecht (UNCITRAL) ist das zentrale Rechtsorgan des Systems der Vereinten Nationen im Bereich des internationalen Handelsrechts. Ihr Mandat besteht darin, rechtliche Hindernisse für den internationalen Handel durch die schrittweise Modernisierung und Harmonisierung des Handelsrechts zu beseitigen. Sie er­ar­beitet Rechtstexte in Schlüsselbereichen wie Insolvenz, Beilegung von Handelsstreitigkeiten, elektronischer Handel, internationaler Zahlungsverkehr, Warenverkauf, Transportrecht, öffentliches Beschaffungswesen und Infrastrukturentwicklung.
 

Pressemitteilung der UNCITRAL
Dokumente der UNCITRAL Arbeitsgruppe Electronic Commerce

Ausschnitt des Deckblatts der Zeitschrift Science vom 13. September 2024
Studie  |  16.09.2024

Open Access prägt die wissenschaftliche Kommunikation

Open Access (OA) stellt einen grundlegenden Wandel im wissenschaftlichen Publikationswesen dar und zielt darauf ab, den uneingeschränkten Zugang zu mit Steuergeldern finanzierter Forschung und Daten zu gewährleisten. Mit einer neuen in Science publizierten Studie leisten Frank Mueller-Langer, Affiliated Research Fellow am Institut und Professor an der Universität der Bundeswehr München, und Mark McCabe, Professor an der SKEMA Business School, einen wichtigen Beitrag zum Diskurs über OA, indem sie die wirtschaftlichen, politischen und institutionellen Dynamiken analysieren, die den Wandel des wissenschaftlichen Publizierens bestimmen.

Ausschnitt des Deckblatts der Zeitschrift Science vom 13. September 2024
Deckblatt der Zeitschrift Science vom 13. September 2024

Die Open-Access-Bewegung strebt an, finanzielle Barrieren für den Zugang zu wissenschaftlichen Erkenntnissen abzubauen. Das wird unterstützt durch internationale Richtlinien wie die Berliner Erklärung (2003) und Initiativen wie die US-amerikanische White House Directive (2022). Bis 2025 müssen alle öffentlich geförderten US-amerikanischen Forschungsergebnisse kostenfrei und ohne Verzögerung zugänglich sein – ein Zeichen für die wachsende globale Bedeutung von OA.


Auswirkungen auf Forschende und Institutionen


Für Forschende ist die Veröffentlichung in renommierten, hochrangigen Fachzeitschriften entscheidend für ihre Karriereentwicklung. Historisch gesehen trugen Universitätsbibliotheken die Kosten für den Zugang zu Forschungsliteratur, was zu drastischen Preiserhöhungen führte – bekannt als „Zeitschriftenkrise“. OA versucht, diese Herausforderungen durch Modelle wie “Gold Open Access” (finanziert durch Artikelbearbeitungsgebühren – sog. APCs) und transformative Vereinbarungen (“Transformative Agreements” – sog. TAs) zu lösen, indem Kosten vom Lesen auf das Publizieren verlagert werden.


Doch die Diskussion ist kontrovers. Kritiker befürchten, dass APC-basierte Systeme die Qualität der Forschung gefährden könnten, indem sie Masse über Klasse stellen. Während OA zwar die Sichtbarkeit und Downloadzahlen erhöht, bleibt der Einfluss auf Zitationsmetriken hingegen moderat. Derweil versuchen transformative Vereinbarungen zwischen Verlagen und Institutionen, Kosten zu begrenzen, zeigen jedoch unterschiedliche Erfolge bei der Förderung von Wettbewerb und Transparenz.


Umfassende Analyse der Auswirkungen von Open Access


Die Autoren untersuchen nun, wie OA-Richtlinien, insbesondere TAs, die Dynamik zwischen Forschenden, Verlagen und Institutionen verändern. Sie heben hervor, dass OA die Sichtbarkeit wissenschaftlicher Arbeiten erhöht, jedoch auch neue Herausforderungen mit sich bringt, wie z.B. die potenziellen Auswirkungen auf die Qualität von Forschung durch APC-basierte Modelle.


Evaluation von Transformative Agreements (TAs)


Ein wesentlicher Fokus liegt auf TAs, bei denen Institutionen Abonnementkosten durch OA-Gebühren ersetzen. Die Autoren analysieren diese Vereinbarungen in Bezug auf ihre Effektivität und Anreizstrukturen, wobei sie aufzeigen, dass viele TAs (außer in Ausnahmefällen wie bei der University of California) keine ausreichenden Mechanismen enthalten, um Kosten effektiv zu kontrollieren.


Betonung von Marktstrukturen und Wettbewerb


Die Studie verdeutlicht, dass der Übergang zu OA sowohl Chancen als auch Risiken für den Wettbewerb zwischen Verlagen birgt. Während APC-basiertes OA theoretisch den Wettbewerb um Einreichungen von wissenschaftlichen Aufsätzen zwischen Verlagen durch sog. Single-Homing-Entscheidungen von Autor*innen verstärken könnte, warnen die Autoren vor der Gefahr, dass OA “Big Deals”, bei denen eine oder mehrere Universitäten und ein einzelner Verlag die APCs für die Veröffentlichung in den Zeitschriften des Verlags aushandeln, die Marktstruktur weiter konzentrieren und Innovation hemmen könnten.


Verknüpfung von Publikationen und Datenanalyse


Die Autoren zeigen auf, wie große Verlage wie Elsevier zunehmend Datenanalyse-Tools in ihr Geschäftsmodell integrieren, was zu einer stärkeren Marktstellung führen könnte. Diese Entwicklung wird kritisch reflektiert, da sie die Unabhängigkeit und den Wettbewerb im Bereich der wissenschaftlichen Datenanalyse beeinflussen könnte.


Politische Empfehlungen und Vorschläge für evidenzbasierte Experimente


Mueller-Langer und McCabe plädieren dafür, politische Maßnahmen wie die US-amerikanische White House Office of Science and Technology Policy (OSTP)-Initiative durch experimentelle Ansätze zu begleiten. Dies könnte dazu beitragen, die Effekte neuer Finanzierungs- und Publikationsmodelle besser zu verstehen und fundierte Richtlinien zu entwickeln.


Fazit


Die Autoren liefern wertvolle Einsichten darüber, wie OA-Strategien das Gleichgewicht zwischen Publikationskosten, Forschungszugang und Qualität beeinflussen könnten. Ihr Artikel unterstreicht die Notwendigkeit einer genauen Beobachtung und Evaluierung der Marktmechanismen, um langfristig eine nachhaltige und wettbewerbsfähige wissenschaftliche Kommunikationslandschaft zu gewährleisten.


Direkt zur Studie:

McCabe, Mark J.; Mueller-Langer, Frank (2024). Open Access Is Shaping Scientific Communication – Funders and Publishers Should Roll Out Policies in Ways to Support Their Evaluation, Science, 385 (6714), 1170-1172. Verfügbar unter https://doi.org/10.1126/science.adp8882

Lucy Xiaolu Wang und Dennis Byrski wurden mit dem Program Chair Award der American Society of Health Economists (ASHEcon) ausgezeichnet.
Studie  |  13.08.2024

Marktzulassung und strategische Praktiken der Patentierung: Erkenntnisse aus der Pharmabranche

Patente sollen Anreize für Innovationen schaffen. Aber Pharmaunternehmen verlängern die Marktexklusivität oft mit Sekundärpatenten auf unwesentliche Produkt­verbesserungen. Solches Verhalten gibt Anlass zu Diskussionen über die Anhebung von Patentierbarkeitsstandards. Für eine neue Studie zum Thema haben Lucy Xiaolu Wang und Dennis Byrski nun den Program Chair Award der American Society of Health Economists (ASHEcon) erhalten.

Lucy Xiaolu Wang und Dennis Byrski wurden mit dem Program Chair Award der American Society of Health Economists (ASHEcon) ausgezeichnet.
Lucy Xiaolu Wang und Dennis Byrski wurden mit dem Program Chair Award der American Society of Health Economists (ASHEcon) ausgezeichnet.

Die neue Studie untersucht, ob Pharmafirmen von der Anmeldung strategischer Patente abrücken, sobald das eigentliche Medikament die Marktzulassung erhält und die damit offengelegten studienbezogenen Informationen zum neuheitsgefährdenden Stand der Technik werden.


Die Autor*innen haben dafür einen neuartigen, dyadischen Datensatz aus Patent- und Medikamentendaten erstellt und bedienen sich einzigartiger europäischer Patent- und Vermarktungszusammenhänge für Arzneimittel. Im Rahmen einer Ereignisstudie machen Sie sich exogene Unterschiede in der Zeitspanne zwischen Patentanmeldung und Marktzulassung zu Nutzen.


Erstens zeigen sie, dass Medikamente mit früher und später Marktzulassung im Vorfeld für Patente und Arzneimittel ähnliche Charakteristika aufweisen. Zweitens stützen sie die Hypothese, dass strategisches Patentierungsverhalten nach der Marktzulassung deutlich abnimmt, während sinnvolle Folgeinnovationen unberührt bleiben. Drittens zeigen sie, dass diese Effekte wahrscheinlich auf Hindernisse bei der Durchsetzbarkeit marginaler Patente nach der Marktzulassung zurückzuführen sind.


Die Ergebnisse der Studie legen nahe, dass eine Erhöhung der Patentierbarkeitsstandards nach Marktzulassung in Verbindung mit einer genaueren Patentprüfung und der Selbstregulierung von Unternehmen wohlfahrts­steigernd sind. Sie betonen die Bedeutung besserer Daten für die Patentprüfung, um die Qualität von Folge­innovationen zu erhöhen.


Lucy Xiaolu Wang war Senior Research Fellow am Institut und ist jetzt Assistenzprofessorin mit Tenure-Track-Status an der University of Massachusetts Amherst. Als Affiliated Research Fellow ist sie dem Institut weiterhin eng verbunden.


Dennis Byrski war Junior Research Fellow am Institut. Im Jahr 2021 legte er seine Dissertation mit dem Titel “From Scientific Research to Healthcare Markets - Empirical Essays on the Economics of Pharmaceutical Innovation” vor. Er ist jetzt Junior Engagement Manager bei McKinsey & Company.


Die American Society of Health Economists ist eine Fachorganisation, die sich der Förderung von Spitzenleistungen in der gesundheitsökonomischen Forschung widmet. Ihr Ziel ist, die Gesundheit sowohl der Einzelnen als auch der Gesellschaft als Ganzes zu verbessern, indem sie Erkenntnisse und Expertise für die Entwicklung privater und öffentlicher Maßnahmen bereitstellt. Mit den ASHEcon Awards werden Personen ausgezeichnet, die einen bedeutenden Beitrag zum Bereich der Gesundheitsökonomie geleistet haben.


Direkt zur Veröffentlichung:
Byrski, Dennis; Wang, Lucy Xiaolu (2024). Marktzulassung und strategische Patentierung: Evidence from Pharmaceuticals. Verfügbar unter https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4638115.


Weitere Informationen:
ASHEcon Preisträger 2024

SDG 3: Good Health and Well-being
Studie  |  07.08.2024

Verbesserung von Gesundheit und Wohlergehen durch Data Governance

Im Rahmen des Projekts Data Governance in Emerging Economies to Achieve the Sustainable Development Goals ist ein zweiter Bericht erschienen – dieses Mal gemeinsam mit Forschenden aus Indien. Der Fokus liegt hier auf dem Nachhaltigen Entwicklungsziel 3 (SDG 3) der Vereinten Nationen, das ein gesundes Leben und die Förderung des Wohlergehens für alle Menschen sicherstellen soll.

Teilnehmende des Workshops in Bengaluru, Indien
Teilnehmende des Workshops in Bengaluru, Indien
SDG 3: Good Health and Well-being
Nachhaltiges Entwicklungsziel 3: Gesundheit und Wohlbefinden

Das internationale Projekt Data Governance in Emerging Economies to Achieve the Sustainable Development Goals liefert mit seinen Erkenntnissen Beiträge zur Diskussion, wie der Umgang mit Daten besonders in Wachstumsregionen dazu genutzt werden kann, die nachhaltigen Entwicklungsziele der Vereinten Nationen zu erreichen. Gemeinsam mit Forschenden aus Indien wird die Data-Governance-Landschaft im indischen Gesundheitssektor untersucht.  Im jetzt erschienen Bericht finden sich vorläufige Ergebnisse sowie Fragen zur Festlegung einer Forschungsagenda, die auf den Erkenntnissen des im September 2022 in Bengaluru veranstalteten Multistakeholder-Workshops aufbaut.


Der Bericht wurde im spezifischen Kontext des SDG 3 verfasst und unterstreicht die Rolle der Data Governance für gute Gesundheit und Wohlergehen in Indien. Nach einer kurzen Einführung in das Projekt folgen vier weitere Abschnitte. Zunächst wird ein detaillierter Hintergrund zur Auswahl von SDG 3 und Indien für die Untersuchung von Data Governance in Wachstumsregionen geliefert. Der zweite Abschnitt bietet einen Überblick über den bestehenden rechtlichen Rahmen für Data Governance in Indien. Neben der Analyse von Open-Data-Initiativen werden in diesem Abschnitt die rechtlichen und gesetzgeberischen Schritte zum Schutz personenbezogener Daten dargestellt und die laufenden Bemühungen zur gesetzlichen Regelung der gemeinsamen Nutzung nicht personenbezogener Daten hervorgehoben. Die Erkenntnisse aus dem Workshop werden im nächsten Abschnitt genutzt, um die Rolle des öffentlichen Sektors, des privaten Sektors und von Start-ups bei der Bestimmung des Umfangs der Data Governance im indischen Gesundheitswesen zu untersuchen. Der letzte Abschnitt fasst die Ergebnisse zusammen und unterstreicht die Bedeutung eines Data-Governance-Rahmens für die Erreichung der Ziele für eine nachhaltige Entwicklung, insbesondere von SDG 3 in Indien. Abschließend stellen die Wissenschaftler*innen eine Reihe von Fragen, die darauf abzielen, eine Forschungsagenda zu entwickeln, die zum Aufbau eines Rahmens für Data Governance in Wachstumsregionen wie Indien beitragen soll.


Als Ergebnis der Forschung und der partizipativen Diskussion mit den Interessenvertretern weist der Bericht darauf hin, dass ein stärkere Beteiligugng aller Interessenvertretungen notwendig ist, um einen angemessenen Data-Governance-Rahmen zu entwickeln. Das schließt auch Maßnahmen ein, die die rechtlichen Rechte und Pflichten der Interessenvertretretungen festlegen, ist aber nicht darauf beschränkt. Die institutionellen und technischen Aspekte der Data Governance werden als wesentliche Ergänzung betrachtet. Generell deuten die Überlegungen im Rahmen des Projekts darauf hin, dass ein Data-Governance-Ansatz, der in engem Zusammenhang mit dem SDG-Rahmen entwickelt wird, erhebliche Vorteile für die Rechtsforschung und die Politikformulierung mit sich bringt.


Arul George Scaria, Vikas Kathuria, Shraddha Kulhari, Vidya Subramanian
Data Governance in Emerging Economies to Achieve the Sustainable Development Goals
India Country Report Based on the Workshop Data Governance for Good Health & Well-Being: India’s Way Forward to Achieving Sustainable Development Goal 3 (Bengaluru, September 8-9, 2022)

Max Planck Institute for Innovation & Competition Research Paper No. 24-08


Mor Bakhoum, Begoña Gonzalez Otero, Jörg Hoffmann, Minata Sarr
Data Governance in Emerging Economies to Achieve the Sustainable Development Goals
Senegal Country Report Based on the Workshop Shaping Data Sharing Policies in the Agricultural and the Financial Services Sector (Dakar, March 16-17, 2022)

Max Planck Institute for Innovation & Competition Research Paper No. 24-05

Teilnehmende des Dakar-Workshops, Senegal, 17.03.2022
Studie  |  28.02.2024

Nachhaltige Entwicklung im Senegal durch Data Governance

Wie der Umgang mit Daten dazu dienen kann, eine nachhaltige Entwicklung in Wachstumsregionen zu erreichen, haben Forschende des Instituts gemeinsam mit Wissenschaftler*innen aus dem Senegal untersucht und nun einen Bericht vorgelegt.

Teilnehmende des Dakar-Workshops, Senegal, 17.03.2022
Teilnehmende des Workshops, Senegal, 17.03.2022. Foto: Begoña Gonzalez Otero
UN Sustainable Development Goals Wheel
UN Sustainable Development Goals

Grundlage waren die Ergebnisse eines Workshops, der im März 2022 in Dakar (Senegal) stattfand. Dieser war Teil des umfassenderen internationalen Projekts “Data Governance in Emerging Economies to Achieve the Sustainable Development Goals (SDGs)”, das untersucht, welche Chancen und Möglichkeiten Data Governance bietet, um die Nachhaltigkeitsziele der Vereinten Nationen zu erreichen.


Der vierteilige Bericht enthält eine umfassende Bewertung der senegalesischen Rechtsvorschriften für den Zugang zu und die gemeinsame Nutzung von Daten (Teil I), die die Grundlage für eine detaillierte Untersuchung der Ausrichtung dieses Rechtsrahmens auf die SDGs bildet. Die Praktiken des Agrarsektors zur gemeinsamen Nutzung von Daten und ihr potenzieller Beitrag zu Wirtschaftswachstum und nachhaltiger Entwicklung werden in Teil II beleuchtet, gefolgt von einer Untersuchung der Herausforderungen und Chancen der Datenverwaltung für Finanzdienstleistungen im digitalen Zeitalter (Teil III). Teil IV fasst die Diskussionen des Workshops zusammen und bietet wertvolle Erkenntnisse, Schlussfolgerungen und zukunftsweisende Empfehlungen.


Diese wissenschaftliche Arbeit leistet einen wichtigen Beitrag zum laufenden Diskurs über Data Governance und ihre zentrale Rolle bei der Verwirklichung der SDGs. Die hier vorgestellten nuancierten Analysen und Erkenntnisse dienen als wertvolle Quelle für politische Entscheidungsträger*innen, Forschende und Anwender*innen, die an der Schnittstelle von Data Governance, Entwicklung und Nachhaltigkeit tätig sind. Darüber hinaus bieten die skizzierten Empfehlungen und die geplante Forschungsagenda einen Fahrplan für zukünftigen Bemühungen der Forschenden, die darauf abzielen, Data Governance in Schwellenländern voranzutreiben und sich an der Vision des UN AI Advisory Board zu orientieren, Künstliche Intelligenz zur Förderung des Gemeinwohls zu regulieren.


Mor Bakhoum, Begoña Gonzalez Otero, Jörg Hoffmann, Minata Sarr
Data Governance in Emerging Economies to Achieve the Sustainable Development Goals Senegal Country Report Based on the Workshop Shaping Data Sharing Policies in the Agricultural and the Financial Services Sector (Dakar, March 16-17, 2022)
Max Planck Institute for Innovation & Competition Research Paper No. 24-05

EU-Kommission Brüssel
Stellungnahme  |  07.02.2024

Stellungnahme zum Vorschlag der EU-Kommission für eine Verordnung über standardessentielle Patente

In der  Stellungnahme vom 6. Februar 2024 zum Vorschlag der Europäischen Kommission für eine Verordnung über standardessentielle Patente (SEP) untersucht das Institut den Vorschlag auf seine Eignung, die Herausforderungen der SEP-Lizenzierung im Kontext des Internet der Dinge zu bewältigen und zu einer ausgewogenen globalen SEP-Lizen­zierung beizutragen. Hieraus werden rechtspolitische Empfehlungen abgeleitet.

EU-Kommission Brüssel
EU-Kommission Brüssel. Foto: Hella Schuster

Am 27. April 2023 legte die Europäische Kommission ihren Vorschlag vor. Ziel der Ver­ordnung ist es, den SEP-Lizen­zierungs­rahmen zu verbessern, indem die Trans­parenz bei Lizenz­verhand­lungen erhöht und Trans­aktions­kosten gesenkt werden. Dabei sind ins­beson­dere (1) die Ein­richtung eines Registers für SEPs mit Wesent­lichkeits­prüfungen aus­gewählter und re­präsen­tativer Stich­proben von SEPs, (2) die Ein­führung eines Ver­fahrens zur Fest­legung unverbind­lichen Gesamt­lizenz­gebühren und (3) ein vor­gericht­liches Schlich­tungs­ver­fahren zur Fest­le­gung von FRAND-Lizenz­gebühren vor­gesehen. Institu­tionell soll ein neues Kompetenz­zentrum innerhalb des Europäischen Amtes für geistiges Eigen­tum (EUIPO) mit der Durch­führung dieser Aufgaben betraut werden.

Symbolbild Genomeditierung. Bild: vchalup/Adobe Stock
Stellungnahme  |  10.08.2023

Stellungnahme zu neuen Genom-Editierungs­techno­logien und Fragen des Immaterial­güter­rechts

Eine neue Stellung­nahme des Instituts befasst sich mit Fragen zu Immaterial­güter­rechten für Genom-Editierungs­techno­logien und genom-editierte Pflanzen in der EU. Sie enthält eine Reihe politischer Empfehlungen zur Erleichterung des Zugangs zu und der Nutzung von immaterial­güter­rechtlich geschützten Genom-Editierungs­techno­logien und ihren Erzeugnissen im Pflanzenzüchtungssektor.

Symbolbild Genomeditierung. Bild: vchalup/Adobe Stock
Symbolbild Genomeditierung. Bild: vchalup/Adobe Stock

Am 5. Juli 2023 hat die Europäische Kommission einen Verordnungsvorschlag vorgelegt, mit dem in der EU die Anforderungen für die Markt­zulassung von Pflanzen gelockert werden sollen, die durch einige neue genomische Techniken (sogenannte NGTs, New Genomic Techniques) gewonnen werden. Es wird erwartet, dass NGTs für Züchter und Landwirte attraktiver werden. Jedoch kann die Komplexität der Immaterial­güter­rechte im Bereich NGTs und der ent­sprechenden Produkte sich negativ auf Inno­vationen auswirken. Angesichts zahlreicher Bedenken bezüglich des Immaterial­güter­rechts­schutzes für NGTs und entsprechende Pflanzen hat eine Forschungsgruppe des Instituts eine Reihe politischer Empfehlungen erarbeitet, die den Zugang zu und die Nutzung von derartigen Technologien und Produkten im Pflanzenzüchtungssektor erleichtern können.


Direkt zur Stellungnahme:
Position Statement (8 August 2023) on New Genomic Techniques and Intellectual Property Law: Challenges and Solutions for the Plant Breeding Sector


Mehr zum Thema:
CRISPR/Cas Technology and Innovation: Mapping Patent Law Issues

Valentina Moscon
Studie  |  24.07.2023

Freier Zugang versus exklusive Kontrolle in der europäischen Datenregulierung

Valentina Moscon, wissenschaftliche Referentin am Institut, erkennt in ihrem neuesten Artikel einen Trend in der europäischen Daten­regu­lie­rung. Dieser geht hin zur Schaffung von Datenexklusivität durch Ur­heber­recht und technische Schutzmaßnahmen und läuft dem An­spruch des freien Zugangs zu Daten ent­gegen.

Valentina Moscon
Dr. Valentina Moscon, wissenschaftliche Referentin am Institut

Moscon nutzt Fallstudien – konkret die Regelung von Text- und Data-Mining (TDM) in der EU-Urheberrechtsrichtlinie von 2019 und das kommende EU-Datengesetz, das den Zugang zu IoT-Daten regelt – um zu analysieren, in welcher Art und Weise sich der erkannte Trend bereits durchsetzt und wo dieser im Widerspruch sowohl zu etablierten Grundsätzen des europäischen und internationalen Urheberrechts als auch zur ausgewogenen Berücksichtigung der Interessen der Beteiligten steht.


Einerseits zeigt der Fall des Text- und Data-Mining, dass sich der Geltungsbereich des Urheberrechts ausweitet, und es ist anzunehmen, dass private Ordnungsmechanismen wie technische Schutzmaßnahmen (TPMs), die es den Rechteinhabern ermöglichen, ausschließliche Rechte auszuüben, diesen Geltungsbereich noch weiter ausdehnen –  über den Bereich der Werke hinaus auf den Bereich der Daten. Andererseits lassen neue Gesetzesinitiativen zur Regulierung des Zugangs zu Daten – mit Ausnahme des sui generis Datenbankrechts – die Rechte des geistigen Eigentums unberührt, so dass es wahrscheinlich zu einer Kollision zwischen den Vorschriften über den Datenzugang und den ausschließlichen Rechten der Inhaber von Urheberrechten und verwandten Schutzrechten kommen wird. Außerdem führt der Vorschlag für ein Datengesetz den Schutz technischer Schutzmaßnahmen für Daten ein, wodurch die ausschließliche Kontrolle über Daten weiter gestärkt wird. Schließlich formuliert Moscon in ihrem Beitrag einige konkrete Handlungssvorschläge.


Valentina Moscon
Data Access Rules, Copyright and Protection of Technological Protection Measures in the EU. A Wave of Propertisation of Information
Max Planck Institute for Innovation & Competition Research Paper No. 23-14