Auf dem Gebiet der Zahlungsbereitschaftsbefragungen haben sich in den Fachzeitschriften methodische Standards durchgesetzt, die Desinformation zulassen und legitimieren. Das ist für die VWL und die Umweltökonomie problematisch und für die Umweltpolitik gefährlich. In der monetären Bewertung von nichtmarktlichen Gütern spielen Befragungen nach dem Ansatz der «Kontingenten Bewertung» heute eine herausragende und weiter zunehmende Rolle. Der vorliegende Beitrag erläutert die Probleme dieses Ansatzes für ein breiteres Publikum. Ausführlichere Darstellungen, auch der Alternativen, finden sich in Schläpfer & Getzner (2020) und Schläpfer (2017, 2021). Überforderung der Befragten Der Grundgedanke ist einwandfrei: Zahlungsbereitschaften für öffentliche Güter und Ökosystemleistungen sollen
Topics:
Felix Schläpfer considers the following as important:
This could be interesting, too:
Swiss National Bank writes 2024-11-01 – Data portal – Interest rates and exchange rates, November 2024
investrends.ch writes Fielmann wächst dank US-Zukäufen – Aktie unter Druck
investrends.ch writes Preise für Renditeliegenschaften steigen erneut
investrends.ch writes abrdn Investments lanciert ersten ETF an der SIX
Auf dem Gebiet der Zahlungsbereitschaftsbefragungen haben sich in den Fachzeitschriften methodische Standards durchgesetzt, die Desinformation zulassen und legitimieren. Das ist für die VWL und die Umweltökonomie problematisch und für die Umweltpolitik gefährlich.
In der monetären Bewertung von nichtmarktlichen Gütern spielen Befragungen nach dem Ansatz der «Kontingenten Bewertung» heute eine herausragende und weiter zunehmende Rolle. Der vorliegende Beitrag erläutert die Probleme dieses Ansatzes für ein breiteres Publikum. Ausführlichere Darstellungen, auch der Alternativen, finden sich in Schläpfer & Getzner (2020) und Schläpfer (2017, 2021).
Überforderung der Befragten
Der Grundgedanke ist einwandfrei: Zahlungsbereitschaften für öffentliche Güter und Ökosystemleistungen sollen in Kosten-Nutzenüberlegungen im öffentlichen Sektor berücksichtigt werden. Aber die Art und Weise, wie ÖkonomInnen heute nach diesen Zahlungsbereitschaften fragen, hat es in sich. Man fragt Leute aus der Bevölkerung zu Politikvorschlägen, die nie öffentlich diskutiert wurden und lässt sie aus dem hohlen Bauch antworten – ohne Parteimeinungen oder andere Anhaltspunkte, die bei Wahlen und Volksabstimmungen eine wichtige Rolle spielen. Die Erkenntnisse der kognitiven Psychologie und der Politikwissenschaft darüber, wie im politischen Bereich Präferenzen entstehen und Menschen Entscheidungen treffen, bleiben unberücksichtigt. An deren Stelle treten traditionelle ökonomische Verhaltensannahmen. Und damit nicht genug: Die Politikvorschläge werden nicht zu den tatsächlichen Kosten, sondern zu hypothetischen Preisen «angeboten». Tatsächliche oder vermeintliche Erfordernisse der statistischen Analyse und der zugrundeliegenden Konsumtheorie werden bei der Erfassung von Zahlungsbereitschaften höher gewichtet als die Glaubwürdigkeit und Verständlichkeit der Fragen.
Die überforderten Befragten behelfen sich mit problematischen Heuristiken: Sie verwenden die hypothetischen Preise als Ausgangpunkt für die Schätzung ihrer Zahlungsbereitschaft – in Ermangelung besserer Anhaltspunkte. Die Zahlungsbereitschaften werden deshalb von den verwendeten hypothetischen Preisen beeinflusst. Diese Effekte sind mit sogenannten Anker-Tests und anderen Verfahren eingehend untersucht worden (z.B. Ariely et al. 2003, Parsons & Myers 2016). Der Befund einer neuen Übersichtsstudie: Werden die hypothetischen Preise um zehn Prozent erhöht, so erhöht sich die Zahlungsbereitschaft um drei Prozent (Li et al., im Druck).
Das bedeutet: Wenn ich einen Politikvorschlag zu Preisen zwischen 10 und 1000 Euro anbiete, so erhalte ich dreissigmal höhere Zahlungsbereitschaften, als wenn ich Preise von 0.10 bis 10 Euro verwende. Bei öffentlichen Gütern sind die Effekte oft noch stärker (Li et al. im Druck, Green et al. 1998, Rheinberger et al. 2018). Methodische Entscheide über die verwendeten Preise (oder verwendete Antwortskalen) beeinflussen die Resultate also in hoch relevantem Mass. Die Antworten lassen sich deshalb auch bewusst in gewünschte Richtungen lenken, und bei Bedarf kann man anhand von einfachen Pre-tests massgeschneiderte Ergebnisse anfertigen.
Verschweigen der Unsicherheiten
Umso wichtiger wäre es, die Sensitivität der Resultate bezüglich der verwendeten Antwortskalen mit aussagekräftigen Tests im Einzelfall zu erfassen und transparent auszuweisen. Aber genau dies wird unterlassen. Wissenschaftlich nachvollziehbar ist das nicht. Aber die weitherum akzeptierten Richtlinien lassen es zu (Johnston et al. 2017). Sie verlangen nicht einmal Hinweise auf die beschriebenen Abhängigkeiten der Resultate. Man kann diese Unsicherheiten verschweigen und die Zahlen kommentarlos als Grundlage für politische Entscheidungen verkaufen (s. Beispiel 1 unten). Damit wird die Grenze zur Desinformation überschritten. Desinformation wird toleriert und legitimiert.
Verbreitet ist auch das Unterschlagen der Unsicherheiten im Rahmen von Metaanalysen, in denen die Probleme der Originalstudien kaum mehr erkennbar sind. Ein Beispiel dafür ist eine Metastudie über kontingente Bewertungen von Mortalitätsrisiken (OECD 2012). In der Studie wurde zwar ausgewiesen, wie viele der Schätzwerte in den Originalstudien einen (extrem schwachen) Validitätstest (einen sog. externen Scope-Test) durchführten und bestanden. Weil dies aber bei nur 85 von 405 Schätzwerten der Fall war (OECD 2012, S. 65), wurden am Ende auch Studien berücksichtigt, die keinen Validitätstest durchführten oder im Test durchfielen (OECD 2012, S. 127). Diese Zahlen der OECD dienen heute unter der Bezeichnung Value of statistical life (VSL) weltweit als Grundlage für Kosten-Nutzen-Analysen im Gesundheits-, Umwelt- und Verkehrsbereich. Eine weitere Meta-Studie – über Bewertungen von Ökosystemleistungen – wird weiter unten beschrieben.
Die wichtigsten Argumente für die Validität der Ergebnisse, die heute herumgeboten werden, sind irreführend. Angebliche Vergleiche mit Volksabstimmungen (Johnston et al. 2017, S. 371f.) untersuchten nicht kontingente Bewertungen, sondern eine Art WählerInnenbefragungen. Die Befragten in diesen Studien hatten ganz andere als die in der kontingenten Bewertung üblichen Informationsgrundlagen (vgl. Schläpfer & Fischhoff 2012, S. 46). Theoretische Argumente, dass die Fragen anreizkompatibel «gemacht werden» können (Carson 2012), dass also hinreichende Anreize für wahrheitsgemässe Antworten gesetzt werden können, beruhen auf unbelegten zweckdienlichen Annahmen.
Selbstregulierung der Branche
Die erwähnten Richtlinien für die kontingente Bewertung (Johnston et al. 2017) wurden von Leuten geschrieben, die selber als Anbieter auf dem Markt für Befragungsstudien auftreten. Sie wurden von einer Fachzeitschrift publiziert, in der einer der Autoren selbst Editor ist. Die VertreterInnen der gängigen Befragungs-Praxis sind unter den Chef-EditorInnen der einschlägigen Fachzeitschriften generell stark vertreten: aktuell (Januar 2021) etwa bei Environmental and Reource Economics, Journal of the Association of Environmental and Resource Economists, Journal of Environmental Economics and Policy, Resource and Energy Economics und International Review of Environmental and Resource Economics.
Öffentliche Organisationen, Institutionen der Forschungsförderung und NGOs finanzieren Studien oder propagieren sogar selbst die Methoden (TEEB 2010, OECD 2018). Sie verlassen sich darauf, dass die Auftragnehmenden in ihren Studien hohe wissenschaftliche Standards einhalten. Die heute üblichen Standards sind aber nicht mehr als eigendienliche Best practices einer selbstregulierten Branche.
Beispiel 1
Das erste Beispiel (Logar et al. 2019) ist eine Studie, die von der ETH-Forschungsanstalt EAWAG finanziert und durchgeführt und im Journal of Environmental Management publiziert wurde. Mitautor war auch ein Ko-Autor der erwähnten Richtlinien.
Befragt wurde eine Bevölkerungsstichprobe im Kanton Zürich – nach der Zahlungsbereitschaft für Fliessgewässer-Renaturierungen mit kantonaler Finanzierung. Die Studie verwendet primär einen Discrete-choice-Ansatz. Ergebnis für einen Kilometer Renaturierung an den Flüssen Thur und Töss: CHF 144 bzw. CHF 196 pro Person und Jahr. Eine anschliessende offene Frage nach der Zahlungsbereitschaft ergab Werte von CHF 52 bzw. CHF 59. Zumindest eine Ursache der extrem hohen Bewertungen ist offensichtlich: In den Fragen wurden sehr hohe hypothetische Preise verwendet (zwischen CHF 25 und CHF 500 pro Jahr für die kleinen Flussabschnitte).
Für die Hochrechnung auf die Bevölkerung wurden die tieferen Werte aus der offenen Frage verwendet – ohne plausible Begründung. Anschliessende Division durch die Kosten der Renaturierung ergibt ein Kosten-Nutzen-Verhältnis der Projekte von 288 bzw. 502. Die Nutzen sind demnach 288 bzw. 502 mal höher als die Kosten. Zur Einordnung: Eine Volksinitiative im Kanton Bern verlangte 1997 einen Fonds für Gewässerrenaturierungen. Jährlich sollten CHF 3 Mio. ausgegeben werden. Pro Person waren das rund fünf Franken (Deacon & Schläpfer 2010). Das Parlament war dagegen. Das Volk hiess die Vorlage knapp gut (54% ja).
Ein Validitätstest wurde nicht durchgeführt. Die Sensitivitätsanalyse übergeht die wohl wichtigste Fehlerquelle, die Überforderung der Befragten und damit zusammenhängende Antwort-Heuristiken. Eine ernstzunehmende Diskussion der hohen Werte fehlt. Die AutorInnen führen diese einfach auf die hohe Kaufkraft und das hohe Umweltbewusstsein in der Bevölkerung zurück (S. 1084).
Eine Anfrage um einen Kommentar zu diesen Punkten wurde wie folgt beantwortet: «I am aware of the various biases that may enter WTP [willingness-to-pay, Anm. des Autors] responses, but we tried to adhere as much as possible to existing international guidelines» (Email, 5.11.2020). Die Antwort zeigt: Man ist sich der Probleme bewusst, verschweigt sie aber in Berichten und Artikeln und kann sich dabei auf anerkannte Richtlinien berufen.
Beispiel 2
Das zweite Beispiel ist eine Meta-Studie, die als Teil eines grossangelegten Berichts über den Zustand der Biodiversität und der Ökosystemleistungen in Europa und Zentralasien publiziert wurde (IPBES 2018). In diesem Bericht steht an prominenter Stelle, in der Summary for Policymakers unter Key Messages im ersten Absatz: “In Europe and Central Asia, which has an area of 31 million square kilometres, the regulation of freshwater quality has a median value of $1,965 per hectare per year.” Es folgen Zahlen zu weiteren Ökosystemleistungen. Eine Tabelle auf Seite 209 des 1151-seitigen Berichts zeigt, dass es sich beim Wert von $1965 um den Medianwert aus drei Schätzwerten für die Ökosystemleistung Regulation of freshwater and coastal water quality handelt. Für Näheres wurden die Autoren kontaktiert. Drei Wochen nach der ersten Anfrage waren die Daten verfügbar.
Der Wert von $1965 stammt aus einer irischen Studie (Buckley et al. 2012), die Ökosystemleistungen in einem 10 Meter breiten Pufferstreifen entlang von Fliessgewässern bewertet. Erfragt wurde die von Landwirten geforderte Kompensation für einen Düngeverzicht. Der Wert ist rund dreimal höher ist als die in der EU üblichen Entschädigungen für Pufferstreifen. Konzeptionell bleibt unklar, inwiefern damit die besagte Ökosystemleistung bewertet wird. Wie valide die Schätzung ist, und wie repräsentativ für die Bewertung der Regulation of freshwater and coastal water quality in Europa und Zentralasien, bleibt unklar. Eine diesbezügliche Anfrage an den Autor blieb unbeantwortet.
Gefahr für Glaubwürdigkeit der politischen Entscheidungsprozesse
Die heutige Praxis ist nicht nur aus wissenschaftlicher Sicht problematisch. Wenn die Präferenzen der BürgerInnen in öffentlich finanzierten Studien zu politikrelevanten Themen nicht ernster genommen werden, steht auch die Glaubwürdigkeit der politischen Entscheidungsprozesse auf dem Spiel. Weil die VertreterInnen der einschlägigen Befragungsmethoden an ihren ungenügenden Standards festhalten wollen, muss die Kritik auch dort ansetzen, wo die Studien in Auftrag gegeben oder verwertet werden. Wer in Politik, Verwaltung oder NGO über die beschriebenen Probleme Bescheid weiss und die Studien dessen ungeachtet verwendet, muss sich selbst den Vorwurf der Desinformation gefallen lassen. Entsprechende Vorkommnisse sind – auch medienwirksam – zu kritisieren, damit sich anspruchsvollere Standards durchsetzen können.
Ariely, D., Loewenstein, G. & Prelec, D., 2003. “Coherent arbitrariness”: stable demandcurves without stable preferences. Quarterly Journal of Economics, 118, 73–105.
Buckley, C., Hynes, S. & Mechan, S. (2012). Supply of an ecosystem service—Farmers’ willingness to adopt riparian buffer zones in agricultural catchments. Environmental Science & Policy 24, 101-109.
Deacon, R. T. & Schläpfer, F. (2010). The spatial range of public goods revealed through referendum voting. Environmental and Resource Economics, 47, 305-328.
Green, D., Jacowitz, K.E., Kahneman, D. & McFadden, D. (1998). Referendum contingentvaluation, anchoring, and willingness to pay for public goods. Resource and Energy Econonmics 20, 85–116.
IPBES (2018). Regional and subregional assessments of biodiversity and ecosystem services: regional and sub-regional assessment for Europe and Central Asia. Intergovernmental Science-Policy Platform on Biodiversity and Ecosystem Services. https://ipbes.net/sites/default/files/2018_eca_full_report_book_v5_pages_0.pdf[ a ] (aufgerufen am 18.01.2021)
Johnston, R.J., Boyle, K.J., Adamowicz, W., Bennett, J., Brouwer, R., Cameron, T.A., Hanemann, W.M., Hanley, N., Ryan, M., Scarpa, R., Tourangeau, R. & Vossler, C.A. (2017). Contemporary guidance for stated preference studies. Journal of the Association of Environmental and Resource Economists 4, 319–405.
Li, L., Maniadis, Z. & Sedikides, C. (in press). Anchoring in economics: a meta-analysis ofstudies on willingness-to-pay and willingness-to-accept. Journal of Behavioral and Experimental Economics, https://doi.org/10.1016/j.socec.2020.101629[ b ]
Logar, I., Brouwer, R. & Paillex, A. (2019). Do the societal benefits of river restoration outweigh their costs? A cost-benefit analysis. Journal of Environmental Management 232, 1075-1085.
OECD (2012). Mortality Risk Valuation in Environment, Health and Transport Policies. OECD, Paris.
OECD (2018). Cost-Benefit Analysis and the Environment: Further Developments and Policy Use. OECD, Paris.
Parsons, G.R. & Myers, K. (2016). Fat tails and truncated bids in contingent valuation: An application to an endangered shorebird species. Ecological Economics 129, 210-219.
Rheinberger, C. R., Schläpfer, F. & Lobsiger, M. (2018). A novel approach to estimating the demand value of public safety. Journal of Environmental Economics and Management, 89, 285-305
Schläpfer, F. (2021). Inadequate standards in the valuation of public goods and ecosystem services: Why economists, environmental scientists and policymakers should care. Sustainability, 13, 393. https://doi.org/10.3390/su13010393[ c ]
Schläpfer, F. & Fischhoff, B. (2012). Task familiarity and contextual cues predict hypothetical bias in a meta-analysis of stated preference studies. Ecological Economics, 81, 44-47.
Schläpfer, F. & Getzner, M. (2020) Beyond current guidelines: a proposal for bringing behavioral economics to the design and analysis of stated preference surveys. Ecological Economics, 176, 106720.
TEEB (2010). The Economics of Ecosystems and Biodiversity: Mainstreaming the Economics of Nature: A synthesis of the approach, conclusions and recommendations of TEEB. http://teebweb.org/wp-content/uploads/Study%20and%20Reports/Reports/Synthesis%20report/TEEB%20Synthesis%20Report%202010.pdf[ d ] (aufgerufen am 18.01.2021)
©KOF ETH Zürich, 21. Jan. 2021