Citeerwijze van dit artikel:
Prof. dr. A.F.A. Korsten en drs. Anne Douwe van der Meer AC, ‘Beleidsonderzoek benutten’, 2014, april-juni, DOI: 10.5553/Beleidsonderzoek.000038

DOI: 10.5553/Beleidsonderzoek.000038

Beleidsonderzoek OnlineAccess_open

Article

Beleidsonderzoek benutten

Auteurs
DOI
Toon PDF Toon volledige grootte
Samenvatting Auteursinformatie Statistiek Citeerwijze
Dit artikel is keer geraadpleegd.
Dit artikel is 0 keer gedownload.
Aanbevolen citeerwijze bij dit artikel
Prof. dr. A.F.A. Korsten en drs. Anne Douwe van der Meer AC, 'Beleidsonderzoek benutten', Beleidsonderzoek Online april 2014, DOI: 10.5553/Beleidsonderzoek.000038

    Achter opdrachtresearch gaat de veronderstelling schuil dat de tussen- en eindresultaten van beleidsonderzoek vroeg of laat ook benut worden en onderdeel worden van een proces van bezinning op beleid. Dit artikel handelt hierover. Diverse aspecten van benutting van onderzoek komen aan bod, zoals de definitie en vormen van benutting. Er worden vier richtingen onderscheiden om de omvang en vorm van benutting of onderbenutting op te sporen. Het artikel geeft voorts verklaringen voor achterblijvende benutting en bevat adviezen om te komen tot meer benutting. Voor ambtenaren, bestuurders en partners in beleidsnetwerken biedt deze beschouwing aanknopingspunten om researchresultaten desgewenst beter te benutten. En voor onderzoekers bevat dit artikel tal van aanzetten tot hypothesevorming voor verder onderzoek.

Dit artikel wordt geciteerd in

    • Inleiding

      Veel onderzoek kent een opdrachtgever en een opdrachtnemer, die tegen vergoeding dit onderzoek uitvoert. Om tot een selectie van de opdrachtnemende onderzoeker(s) te komen zal vaak een aanbestedingsprocedure plaatsvinden, bijvoorbeeld een openbare aanbesteding of een aanbestedingsprocedure op uitnodiging die niet openbaar is. Na de keuze van een opdrachtnemend bureau vinden meestal enige nadere entreebesprekingen plaats over het wat en hoe van het onderzoek, bijvoorbeeld over de vraag: wel of geen openbaarheid van resultaten en op welk moment? En er zal een begeleidingscommissie worden ingesteld, die het onderzoek begeleidt en op de kwaliteit let. Na voltooiing van het onderzoek wordt het rapport aan de opdrachtgever aangeboden, die zich gaat bezinnen op de vraag ‘wat met de bevindingen of resultaten te doen’. Soms vindt er ook een tussentijdse rapportage van enige resultaten plaats of verschijnt er een interimrapport.

      Dergelijk onderzoek wordt doorgaans getypeerd als toegepast onderzoek (‘applied scientific research’). Dat betekent dat dergelijk onderzoek zich onderscheidt van fundamenteel of zuiver-wetenschappelijk onderzoek, dat primair gericht is op kennisvermeerdering.

      Hier gaat de aandacht uit naar toegepast sociaalwetenschappelijk onderzoek, inclusief bestuurskundig onderzoek, en dus niet naar bijvoorbeeld toegepast natuurwetenschappelijk onderzoek. Voorbeelden van dergelijk sociaal onderzoek zijn: een onderzoek naar de opvattingen van huurders van corporatiewoningen over de kwaliteit van woningen en woningonderhoud. Of een onderzoek naar de waardering van participatieprocessen door deelnemers aan inspraak bij regionale ruimtelijke plannen. Dergelijk onderzoek heb ik zelf ooit in opdracht verricht.

      Toegepast sociaalwetenschappelijk onderzoek wordt doorgaans in de praktijk bij een overheid gebruikt in een besluitvormingscontext. Denk maar aan onderzoek naar het voorkomen van huiselijk geweld in een stad (komt het voor en hoe moet een overheid ermee omgaan?) of een analyse van de voorwaarden voor het succesvol toewerken naar de keuze van gemeente X als culturele hoofdstad van Europa. Dit toegepast onderzoek moet dan ook ‘passen’ in die context. Dat betekent vaak dat het minder precies hoeft te zijn dan fundamenteel onderzoek, maar wel bij herhaling dezelfde bevindingen moet opleveren. Een onderzoek in een praktijkcontext hoeft niet met 99,9 procent waarschijnlijkheid aan te geven dat de kans op aanwezigheid van mond- en klauwzeer in een agrarisch gebied in die en die periode zeer groot is; 80 procent is ook al voldoende om te weten dat een overheid tot handelen moet overgaan. Aldus formuleren we het vrij naar James Coleman, die zich ooit bezighield met het onderscheid tussen toegepast en fundamenteel onderzoek.

      Dergelijk zogenoemd opdrachtonderzoek komt in veel vormen voor. Het kan gaan om inventariserend onderzoek, dat gericht is op het vaststellen van de aanwezigheid van een verschijnsel (komt iets voor, waar komt het in welke frequentie voor?, enz.). Een tweede type opdrachtonderzoek is diagnostisch onderzoek, gericht op de vraag waarom iets wel of niet voorkomt. Een derde type onderzoek is evaluatieonderzoek, gericht op de waardering van een verschijnsel. Bij waardering wordt gedoeld op beoordeling. Bij dergelijke evaluaties kunnen we denken aan ex ante evaluaties (inschatting of van een beleidsinterventie het gewenste effect is te verwachten) en ex post evaluaties (inschatting of beleid in uitvoering de gewenste resultaten en effecten heeft en/of bijwerkingen). Hier gaat het vooral om toegepast sociaalwetenschappelijk onderzoek in de vorm van evaluatieonderzoek.

      Dit evaluatieonderzoek kan traditioneel getypeerd worden als onderzoek naar het optreden van resultaten (‘output’) en effecten van beleid (‘outcomes’) en het begrijpen van de bijdrage van de uitvoering of toepassing van beleid aan die effecten.

      Wie een verkeersveiligheidsbeleid voert, kan de ambitie hebben om het aantal jonge en oudere verkeersslachtoffers terug te dringen met 20 procent (doel of gewenst effect) door het plaatsen van verkeerdrempels op toegangswegen in de gemeente en 30-kilometerzones (resultaat).

      Kernbegrippen in evaluatieonderzoek zijn dus doel, gewenst effect, resultaat en feitelijk effect. Wat een evaluator vaak wenst na te gaan, is of het effect bereikt wordt en of het echt zo is dat de afname aan verkeersslachtoffers veroorzaakt wordt door verkeersdrempels te plaatsen of door de 30-kilometerzones of door beide of geen van beide. Het is mogelijk dat ook ‘factoren en omstandigheden’ buiten het beleid krachtig bijdragen aan de verhoging van de verkeersveiligheid, bijvoorbeeld meer snelheidscontroles door de politie en/of instructies van onderwijzend personeel aan jongeren om attent te zijn in het verkeer. Als effecten bereikt worden maar ze buiten het drempel- of zonebeleid liggen, kan een onderzoek reden zijn om met althans die maatregelen niet door te gaan en misschien onderwijzers te stimuleren vooral met lessen over verkeer door te gaan en de politie te activeren vooral verkeerscontroles te blijven houden.

      Daarmee komen we op leren door te evalueren. De bedoeling achter (toegepast) evaluatieonderzoek in opdracht is doorgaans ‘gebruik’ van de resultaten te bewerkstelligen of benutting te bereiken. In het voorbeeld is dat ook duidelijk. Maar lang niet altijd is van die benutting van onderzoek vanzelfsprekend sprake. Het is mogelijk dat het pas veel later tot benutting van een onderzoek komt, bijvoorbeeld omdat bestuurders op het moment dat het onderzoek uitkomt, wat anders aan hun hoofd hebben. Als zich net een vuurwerkramp met veel slachtoffers heeft voltrokken, zoals op 13 mei 2000 in Enschede het geval was, staan de hoofden van bestuurders niet direct naar een bezinning op verkeersveiligheidsbeleid.

      Deze beschouwing gaat verder over benutting. Wat kan zich voordoen aan benutting? Kan de benutting falen?

    • Hoofdbrekens

      Benuttingsvraagstukken geven aanleiding ‘tot veel hoofdbrekens’ (Korsten, 1983; Bekkers, 2007: 318; Hoppe, 2008: 16). Drie redenen zijn daarvoor te geven.

      1. Slechte zichtbaarheid: benutting van onderzoek in een overheidsorganisatie is niet eenvoudig zichtbaar (te krijgen) (‘low visibility’; Korsten, 1983: 28).

      2. Hoge verwachtingen: de zeer hoge verwachtingen over benutting in de vorm van snel en direct gebruik dragen bij aan het beeld dat ‘little utilization takes place’. Het gebruik heet al gauw wat ‘dun’ of weinig (Korsten, 1983:28).

      3. Politiek is een zaak van stukjes en beetjes: er is wel eens gezegd dat benutting van onderzoeksbevindingen te omschrijven is als een kwestie van ‘stukjes en beetjes’, omdat politici beleid ook maar moeilijk kunnen veranderen en dat beleid veranderen ook een zaak is van ‘stukjes en beetjes’ (een term van Bram Peper). Beleid berust immers op meerderheden en beleid is gegoten in wetten, verordeningen en andere beleidsinstrumenten. Wil je die veranderen dan moet je op allerlei zaken letten, zoals een nota en/of wet ontwerpen om een andere wet weer af te schaffen. Anders gesteld, benutting is: ‘ambigous, amorphus, incremental and meandering’ (Webber, 1991; Bekkers, 2007: 318).

      We lopen daarmee aan tegen:

      • de begripsomschrijving van benutting of gebruik van onderzoeksresultaten;

      • wat te verwachten is aan benutting (normatieve modellen);

      • de differentiatie naar typen benutting (onder andere de indeling in direct en indirect gebruik);

      • hoe benutting te onderzoeken (we geven een aantal manieren, zoals ‘'grenzenwerk’ en de ‘utilization research’);

      • hoe veel of weinig benutting te verklaren (drie clusters verklaringen).

      Deze thema’s komen hier aan bod.

    • Begrippen

      Een van de lastige onderwerpen rond de benutting van onderzoek is de terminologie. We gebruiken hier de termen benutting en gebruik door elkaar.

      We spreken niet:

      • van ‘rendement’ (wel bij Van de Vall & Van Dijkum-De Jong, 1979; Van Hoesel et al., 2005);

      • van ‘doorwerking’ (wel bij Bekkers et al., 2004; Hupe & Van der Meer, 2006);

      • van ‘cruciale koppeling’ (Hupe & Van der Meer, 2006);

      • en niet van ‘invloed’ (Mark & Henry, 2004).

      Rendement achten we een eenzijdig economische term, hoofdzakelijk verwijzend naar kosten en baten. Doorwerking verwijst naar gebruik van in procedures ingebedde rapportages als milieu- en andere effectrapportages, wier bestaan niet ontkend mag worden. En doorwerking verwijst te veel naar het zonder meer overnemen van resultaten, wat ongewenst kan zijn omdat er in een politieke democratie altijd een politiek-bestuurlijke afweging nodig is en slecht onderzoek niet moet worden overgenomen, niet moet doorwerken.

      Ook de term ‘cruciale koppeling’ of kennistoepassing negeren we omdat die in de literatuur geen gemeengoed zijn. Kennistoepassing is een te deterministisch concept dat wellicht meer past bij natuurwetenschappelijk onderzoek.
      We komen in de literatuur ook het begrip ‘kennistransfer’ tegen (Korsten, 1983: 28). We gebruiken dit begrip verder niet omdat het ons te doen is om de betekenis van rapporten.

      ‘Benutting’ en ‘gebruik’ verwijzen ons inziens vooral naar ‘bezinningstrajecten’ en laten toe te denken in fasen en vormen van benutting (Van de Vall, 1980; Korsten, 1983; Pröpper & De Vries, 1995; Dal Santo et al., 2002; Landry et al., 2003). Is de benutting of het gebruik van onderzoeksbevindingen gering dan spreken we van onderbenutting of ondergebruik.

      Dat betekent dat we ervan uitgaan dat maximalisering van benutting of gebruik de norm is, althans zeker bij in opdracht verricht onderzoek (conform Carter, 1994; Pröpper en De Vries, 1995). Daar zijn natuurlijk enkele kanttekeningen bij te plaatsen. Habermas (1987) heeft uitgelegd dat er drie vormen omgaan met onderzoek zijn: het decisionistisch model, het technocratisch model en het pragmatisch dialoogmodel. In het technocratisch denken domineert het onderzoek de besluitvorming, in het decisionistische model domineren de besluitvormers en zijn onderzoekers ondergeschikt, terwijl er in het dialoogmodel wisselwerking bestaat tussen wetenschap en beleid. In een politieke democratie dient een pragmatische aanpak gericht op dialoog tussen onderzoekers en beleidsvoerders voorop te staan. Zo gezien, mag niet verondersteld worden dat onderzoek domineert en benutting van onderzoeksbevindingen op voorhand maximaal zou moeten zijn. Immers, dan is men een adept van het decisionistische denken.

      Heeft het zin om het begrip ‘invloed’ te gebruiken in plaats van gebruik of benutting? Wie de specifieke literatuur over evaluaties beziet, komt tot de conclusie dat het gaat om benutting van het (evaluatie)resultaat. Sommigen stellen evenwel een heroverweging van het begrip ‘benutting’ voor (Kirkhart, 2000; Henry & Mark, 2003). Karin Kirkhart stelt:

      ‘The term influence (the capacity or power of persons or things to produce effects on others by intangible or indirect means) is broader than use, creating a framework with which to examine effects that are multidirectional, incremental, unintentional, and instrumental.’ (Kirkhart, 2000: 7)

      Kirkhart meent dat het zoeken naar ‘benutting’ (‘utilization’, ‘use’) te beperkt is. Henry en Mark (2003) treden in haar voetsporen. Het analyseren van de evaluatie-invloed zou de mogelijkheid bieden om te begrijpen waarom, wanneer en hoe het onderzoeksresultaat benut wordt. Er moet volgens deze auteurs meer zicht ontstaan op processen en ketens die het wel of niet reflecteren op het onderzoeksresultaat kanaliseren. ‘Benutting’ acht Kirkhart slechts een onderdeel van invloed als breder kader. Een evaluatierapport kan bijvoorbeeld ook invloed hebben op opvattingen en houdingen van ambtenaren en/of bestuurders. Dat kun je dan niet echt tot ‘benutting’ rekenen, maar dit proces heeft wel betekenis, stelt zij.

      Duidelijk is dat Henry en Mark ook zien dat benutting te makkelijk leidt tot de waarneming van onderbenutting en daarmee leidt tot frustratie over de betekenis van beleidsevaluaties. Soms is er wel degelijk van invloed sprake; het is zaak daarop ook zicht te krijgen. Deze auteurs stellen dat benutting in het algemeen onvoldoende aandacht schenkt aan (intra)persoonlijke, inter-persoonlijke en maatschappelijke veranderingsprocessen (Henry & Mark, 2003: 297; Mark & Henry, 2004).

      Het is goed dit te beseffen, maar we houden hier toch vast aan de termen ‘benutting’ en ‘gebruik’ en nemen het voorgaande ter harte.

    • Benutting van kennis: welke?

      Waar moeten we aan denken bij benutting van (beleids)onderzoek? We noemen een aantal mogelijkheden. Deze opsomming zal niet volledig zijn, maar geeft wel een indruk (zie ook Hoppe & Peterse, 1998;  Van Hoesel et al., 2005; Dunn, 2008; Boekenoogen et al., 2009; Derksen, 2011: 115-116; Plaat et al., 2012).

      1. Datagebruik: Onderzoek levert cijfers die een bestuurder kan gebruiken om beleid te onderbouwen. Bijvoorbeeld cijfers over de ‘leeftijd’ van rioolbuizen in het stadscentrum en daarbuiten. Cijfers over de reinheid en mate van verontreiniging van oppervlaktewater.

      2. Operationele kennis: Onderzoek draagt bij aan de operationalisering van beleidsconcepten en beleidsprogramma’s in het algemeen. Welke mogelijkheden heeft de burgemeester om de vestiging van drie pedofielen in een bepaalde woonwijk tegen te gaan? Als de omvang van de hennepteelt in de gemeente wordt vastgesteld, is het nodig om ...

      3. Probleemanalyses: Waar gaat het na agendering van een item en van melding van incidenten eigenlijk precies om? Wat is voor wie hoe en waarom een probleem? Is het probleem minuscuul of groot?

      4. Vergelijking van alternatieven: Als alternatief c gevolgd wordt, heeft dat meer positieve of negatieve consequenties voor luchtverontreiniging dan in geval van alternatief b of a.

      5. Kosten-batenanalyse van alternatieven: Hoe groot is de financiële meerwaarde als een weg door Rijkswaterstaat wordt aangelegd via dbfm (PPS) in vergelijking met design & built (db)?

      6. Prognoses van groei of krimp: Denk bijvoorbeeld aan de toename van files … in jaar o in vergelijking met jaar k en l. De toename van drugsgebruik in een gemeente onderscheiden naar soorten drugs.

      7. Het aanreiken van een aansprekend idee of beleidssuggestie: Bijvoorbeeld over duurzaamheid of innovatie. ‘Als Nederland nou eens een windmolenpark in zee zou bouwen …’

      8. Evaluatieve (resultaat)kennis (o.a. monitoring en ‘performance’): Wat is het normenkader voor de beoordeling van de kwaliteit van het gemeentebestuur in een bestuurskrachtmeting? Wat is het draagvlak voor introductie van beleid a versus b? Is het doelmatiger om huisvuil zelf op te halen of huisvuilophaal uit te besteden?

      9. Effectkennis: Wat is er terechtgekomen van beleidsprogramma a en wat is de oorzaak van het niet (in een bepaalde mate) bereiken van doelstellingen? Wat zijn de (neven)effecten van politiek k? Wat zijn de gevolgen van de introductie van buurtcoaches op …? Heeft de introductie van maatregelen op het gebied van verkeersveiligheid geleid tot minder ongevallen van het type a, b en c?

      10. Uitvoeringskennis: Hoe werken organisaties aan de reïntegratie van werklozen in het arbeidsproces? Is dat conform de verwachtingen?

      11. Risico-analyses: Welke risico’s lopen burgers in geval van het uitbreken van ziekte a en b? Of in geval van een overstroming?

      12. Consequentionele kennis: Wat is de ‘impact’ van het op grote schaal niet achterhalen van de schuldigen van woninginbraken voor het oordeel over de politie? Wat zijn de ingeschatte gevolgen van de introductie van een wietpas op illegale drugshandel op straat?

      13. Optionele kennis: Wat zou de implicatie kunnen zijn van het uitrusten van alle handhavers met een iPad met gegevens over ...? Welke mogelijkheden biedt ICT voor gemeenteambtenaren? Wat impliceert e-government voor de mogelijkheden op het vlak van dienstverlening?

      14. Vergelijkende kennis: Hoe waarderen burgers in verband met de dienstverlening de openingstijden van gemeenten? En wat vinden ze van de loketbehandeling? Wat leren benchmarkings?

    • Normatieve denkmodellen: wat mogen we verwachten aan ‘benutting’?

      Alvorens in te gaan op hoe je deze of andere benutting of ander gebruik van onderzoek zou kunnen onderzoeken, behandelen we kort enkele normatieve modellen over de relatie tussen onderzoek en beleid. Het gaat hier om hoe onderzoek benut moet of kan worden. Wat mag je verwachten aan benutting? Die behandeling biedt de mogelijkheid om voor eenzijdigheden te waarschuwen. We noemen de volgende perspectieven of concepten:

      het push-model; het demand-pull-model, het verspreidingsmodel, het interactiemodel, het enlightenment-model, politiek-argumentatieve model (o.a. Weiss, 1977, 1979, 1980; Weiss & Bucuvalas, 1980; Korsten, 1983; Bekkers, 2007; Dunn, 2008).

      Allereerst is er het ‘push-model’. Dit is al een oudere denkwijze (Korsten, 1983), die we nog steeds tegenkomen (Bekkers, 2007: 318). Volgens dit perspectief is de kwaliteit van nieuwe ideeën en inzichten die uit onderzoek voortkomen, de belangrijkste determinant voor de toepassing van kennis door beleidsvoerders of netwerkpartners. Een evaluatierapport leidt een-op-een tot besluitvorming over beleid in de vorm van aanpassing, herontwerpen of stoppen van beleid. Dit is een hoofdzakelijk lineair model. Als onderzoekskwaliteit bepalend is, dan is de vraag wat de geldigheid en betrouwbaarheid van kennis is. Deze kwaliteit is dus van groot belang voor het begrijpen van de benutting in dit model. De stelling luidt: hoe meer kwaliteit een onderzoek heeft, hoe meer of betere benutting.

      Dit rationele en lineaire model is helder maar eenzijdig omdat er bij besluitvorming veel meer actoren, met verschillende macht en belangen, betrokken zijn. Die doen mee aan een ‘spel’ van trekken en duwen, waarbij sommigen het onderzoek naar zich toetrekken en anderen het afstoten of negeren. Beleid is niet alleen een zaak van cognitie (lees: interactie) maar ook van communicatie over en weer (lees: uitvechten). Daarom zal dit lineaire model vermoedelijk de werkelijkheid van benutting doorgaans niet goed representeren. Tenzij het een bijzonder onderzoek is dat gerelateerd is aan een crisis. Zoals bijvoorbeeld een onderzoek naar het falen van een raket uit een maanprogramma, omdat de oorzaak bekend moet zijn alvorens het lanceringsprogramma te vervolgen. Of een onderzoek naar uitputting van een belangrijke energiebron (Korsten, 1983).

      Een tweede conceptueel model van benutting en benuttingsprocessen is het probleemoplossingsmodel, dat ook wel het ‘demand-pull-model’ wordt genoemd (Korsten, 1983; Bekkers, 2007: 318). Dit is een veel gehanteerd model. Het accent wordt hier niet gelegd bij het onderzoek of de onderzoekers, maar bij de opdrachtgevers, vragers en gebruikers van kennis. De redenering houdt in dat als een beleidsevaluatie of ander onderzoeksverslag goed aansluit op ‘beleid’ en beleidsvraagstukken, het rapport naar alle waarschijnlijkheid ook benut zal worden. De stelling luidt: hoe meer aansluiting, hoe meer benutting. Opdrachtgevers en gebruikers moeten dan wel goede wensen of eisen formuleren ten aanzien van het onderzoek, en de onderzoeker moet die als het ware verwerken in de opzet en uitwerking van het onderzoek en de reflectie op uitkomsten respectievelijk de formulering van aanbevelingen. In deze optiek gaat veel aandacht uit naar een gemeenschappelijk referentiekader, naar overeenstemming over de opdrachtformulering en het begeleiden van het onderzoek en de onderzoeker(s).

      Ook dit model is evenwel eenzijdig: het is veel gehanteerd, maar slechts op een beperkt aantal gevallen van toepassing (Korsten, 1983). We zitten ook hier nog in de sfeer van de al genoemde lineariteit en (eenzijdige) rationaliteit (Bekkers, 2007: 318). Dit model houdt te weinig rekening met het feit dat een overheid zich nogal eens bevindt in een beleidsnetwerk en dat beleid maken, vaststellen en uitvoeren vaak een zaak is van zowel uitdenken als uitvechten (chiquer gesteld: van cognitie en sociale interactie). Bestuurders hebben medewerking en draagvlak nodig. In een netwerk is zelfs sprake van zodanige afhankelijkheden dat niet één actor beschikt over alle taken, bevoegdheden en middelen om alleen zijn wil door te zetten. Dat impliceert dat het beleidsnetwerk productief moet worden door een gemeenschappelijk perspectief, doelvervlechting en de koppeling van middelen aan doelen. Overigens geldt niet voor alle beleidsvraagstukken dat sprake is van een netwerkcontext.

      Het derde conceptueel model ten aanzien van benutting van onderzoeksbevindingen is het verspreidingsmodel (‘dissemination model’). In deze optiek, die we onder meer tegenkomen op medisch terrein, wordt geaccentueerd dat wat van benutting wordt vooral een zaak is van een goede communicatiestrategie kiezen, waardoor de bevindingen ook goed voor het voetlicht komen en aandacht trekken (Korsten, 1983; Pröpper & De Vries, 1995; Hanney et al., 2003: Bekkers, 2007: 318). Deze wijze van denken zoekt de oorzaak voor onderbenutting vooral in een inadequate presentatie en verspreiding van kennis, en de reden voor benutting juist in een goede presentatie en disseminatie. Daar is wel iets voor te zeggen. Deze variabelen zijn inderdaad belangrijk. Onderzoekers wier onderzoek niet of beperkt benut wordt, neigen ertoe om met één rapport te volstaan en als ze nog iets publiceren dat dan te doen in een wetenschappelijk tijdschrift dat niet gericht is op de doelgroep. Dat kan en moet veelal anders. Een multimediale strategie is aan te bevelen.

      Ook dit perspectief kan zekere eenzijdigheid niet ontzegd worden. Het perspectief neigt naar monocausaliteit: alsof alles afhangt van slechts één factor, de communicatie. Ook in dit perspectief wordt te lineair gedacht. De kwaliteit van het onderzoek kan er ook toe doen, evenals de kenmerken van de onderzoekers en hun kijk op het te onderzoeken vraagstuk, en kenmerken van het ‘ontvangend systeem’. In feite is dit model complementair aan de genoemde.

      Het vierde perspectief op benutting is het interactiemodel. In deze conceptualisering is het lineaire (monocausale) denken nagenoeg verlaten. De centrale gedachte uit het interactiedenken is dat sprake is van gescheiden werelden (onderzoekers versus beleidsvoerders en actoren uit het onderzochte veld) die verbonden moeten worden. De stelling is: naarmate kennisproducent, opdrachtgever(s) en gebruiker(s) langduriger en intensiever met elkaar communiceren, zal de kans op benutting van onderzoeksbevindingen sterk toenemen. Dat betekent dat er sprake moet zijn van overleg tussen onderzoekers, opdrachtgever, gebruikers en wellicht ook ‘partijen’ uit het betreffende beleidsveld tijdens de opdrachtverlening, de uitvoering van het onderzoek, de publicatiefase en het verdere beleidstraject. Daarmee is wel duidelijk dat dit ‘model’ elementen uit het ‘research push-model’ en het ‘demand-pull’-denken en het verspreidingsperspectief incorporeert (Korsten, 1983; Bekkers, 2007: 319). De interactie lijdt er niet onder als de onderzoekers proberen geldig en betrouwbaar onderzoek te verrichten, ze de gebruikers tijdig bij het onderzoek betrekken en rekening houden met hun kenmerken en percepties, en als ze proberen de resultaten op meervormige en adequate wijze te verspreiden. In de interactie komt juist een aantal van deze onderwerpen aan de orde. In feite is het interactiemodel dan ook een uitwisselings- en afstemmingsaanpak. Dat is positief.

      In dit model wordt niet benadrukt dat in de overlegvormen de onderzoeker gemanipuleerd moet of mag worden. Het gaat eerder om het kweken van begrip voor de context waar de onderzoeksopdracht uit voortkomt, het stellen van de goede vragen in het onderzoek, het op het juiste moment uitbrengen van bevindingen, rekening houdend met openingen (‘momentum’) in de agendavorming. Dit sociale perspectief lijkt dus al beter dan de voorgaande, maar de vraag is: is de politiek-bestuurlijke component, dus van timing en macht en belangen er voldoende in opgenomen? Voldoende als de overleggende ambtenaren deze componenten aanvoelen en bespreekbaar maken en als de onderzoekers gevoel hebben voor de politieke barometer en met de politiek-bestuurlijke omstandigheden weten rekening te houden. Conclusie: we begrijpen met dit vierde perspectief, naast de eerdergenoemde, al beter wat rond benutting van onderzoek een rol speelt.

      We komen bij een vijfde perspectief, het ‘enlightenment’-model (Korsten, 1983; Bekkers, 2007). Onderzoeksbevindingen kunnen een agenderende functie vervullen. Maar hoe gaat de agendering? In het openbaar bestuur kunnen ideeën, wensen, eisen en voorkeuren van onderop naar boven komen via kanalisatie door journalistenwerk, via de opiniepagina’s, via politieke partijen en belangen- of actiegroepen, of via zaakwaarnemers. Ook komt het voor dat agendering van bovenaf geschiedt, doordat politieke bestuurders proefballonnen oplaten of expliciet in de samenleving bij doelgroepen steun aftasten door middel van een interview of discussienota. Ook kan agendering vanuit een tussenorganisatie geschieden, zoals een vakbond, een adviesorgaan of een planbureau. Onderzoek kan daarin een rol vervullen.

      Wie uitgaat van agendavorming (Kingdon, 2003), betreedt de arena van probleempercepties, probleemverkenningen, beleids(her)ontwerp, besluitvorming, implementatie. Een wereld die volop bezaaid is met politieke voorkeuren, versnellers, meelifters en barrières. Wie zo kijkt, plaatst benutting van onderzoek in een politiek-bestuurlijk perspectief. Leidt onderzoek tot andere prioriteiten, tot erkenning van een vergrote ernst van de problematiek, tot een verschuiving in een controverse en nieuwe conceptualisering, tot een andere probleemformulering of tot herontwerp van een beleid? Wie zo kijkt, onderkent dat onderzoek kan bijdragen aan een andere conceptualisering van beleid en ‘reframing’ (Weiss, 1977; Korsten, 1983; Bekkers, 2007: 320).

      In het zesde perspectief is sprake van een ‘politiek-argumentatief model’ (Bekkers, 2007: 320; ook Korsten, 1983: 18). Kennis is macht. Wie over kennis beschikt die anderen missen, heeft een voorsprong. Onderzoek is in dit perspectief vooral ammunitie voor partijen met eigen belangen die eigen standpunten ontwikkelen, innemen en verdedigen. Ook politieke bestuurders en politieke fracties betrekken stelling en trekken onderzoek naar zich toe of stoten het af. Het verschijnsel ‘tactisch gebruik’ en ‘strategisch gebruik’ doet hier zijn intrede. Onderzoeksbevindingen zullen in dit perspectief dus benut kunnen worden door de bevindingen te omarmen, te kritiseren, af te stoten of te negeren. Benutting is niet uitsluitend een zaak van kritiekloos aanbevelingen overnemen. Het is in dit perspectief dat ook aandacht ontstaat voor selectieve benutting: het shoppen in de onderzoekswinkel om te vinden wat uitkomt.

      Tot zover zes perspectieven op benutting. Deze perspectieven geven zicht op hoe met onderzoeksbevindingen omgegaan kan worden en wordt. Deze perspectieven genereren bovendien tal van factoren die van invloed zijn op benutting van onderzoeksbevindingen. De perspectieven zijn complementair.

    • Verklaringen gewogen

      Zijn enkele perspectieven meer belangrijk dan andere?
      De lineaire conceptualisering is schraal omdat de omvattendheid beperkt is. Niet alle onderbenutting is terug te voeren tot het onderzoek, of tot een gebrekkig proces van opdrachtformulering of tot een gebrekkige presentatie en verspreiding van uitkomsten. Uit de literatuur komt naar voren dat het interactie-, het enlightenment-perspectief en het politiek-argumentatief perspectief juist in combinatie veel realiteitswaarde hebben. Het politiek bestuur heeft veel van doen met agendering, strijd en argumentatie. Maar nu al kan gezegd worden dat wie de specifieke benutting van evaluatierapporten analyseert, wel met push & pull en interactie rekening mag houden, want dergelijke rapporten zijn bedoeld om te gebruiken vanwege de leerfunctie en het op gebruik van evaluatierapporten hier en daar bestaande toezicht.

      Wat laat het onderzoek naar benutting verder zien?

    • Het onderzoek van kennis: vier richtingen om benutting op te sporen

      Hoe zouden we greep moeten krijgen op benutting of gebrekkige benutting van onderzoeksrapporten? Door aansluiting te zoeken bij het denken over benutting van onderzoek en onderzoeksrapportages. Daarin zijn meerdere denkrichtingen te onderkennen. Ook deze zijn sluiten elkaar niet uit, maar zijn complementair. Het gaat om:

      1. de klassieke ‘utilization research’-benadering gericht op het begrijpen van de benutting van toegepast (lees: gebruiksgericht) sociaalwetenschappelijk onderzoek (Caplan 1979; Weiss, 1979, 1980; Weiss & Bucuvalas, 1980; Van de Vall, 1980; Korsten, 1983; Patton, 1997; Bekkers et al., 2004; Johnson et al., 2009);

      2. de grenzenwerk-aanpak (Hoppe, 2002, 2003, 2007, 2008, 2010, 2012; Hoppe & Halffman, 2004; Hoppe & Huijs, 2003; In ’t Veld, 2010; Derksen, 2011);

      3. de benadering van de lerende organisatie (Argyris & Schön, 1978; ’t Hart, Hufen & Van Duin, 1988; Casey, 1993; Greve, 2003);

      4. de pragmatische, meer bedrijfseconomisch gerichte aanpak (Van Helden et al., 2005).

      We geven hier een kort commentaar op en maken een keuze. Verderop wordt de onder a genoemde benadering uitgewerkt.

      De klassieke ‘utilization research’- benadering volgen we hier omdat we daarmee het meest vertrouwd zijn, deze nog steeds actualiteitswaarde heeft en we onvermijdelijk moeten uitgaan van rapporten (Weiss & Bucuvalas, 1980; Van de Vall, 1980; Korsten, 1983; Landry et al., 2003; Bekkers et al., 2004; Van Dooren & Van de Walle, 2008). Wie als onderzoeker een opdracht krijgt tot het doen van onderzoek, mag veronderstellen dat dit onderzoek ergens bij een onderdeel van de beleidscyclus kan worden aangehaakt, bijvoorbeeld bij de bezinning op de uitvoering, in de evaluatiefase of bij de bezinning op de beleidsverandering (‘policy change’). Denk maar eens aan een onderzoek naar de staat van de gemeentelijke dualisering vijf jaar na de invoering in maart 2002. Beleidsdynamiek heeft immers niet de vorm van beleidsbeëindiging of het starten van geheel nieuw beleid. Nee, beleidsdynamiek is vaak een kwestie van beleidsopvolging (‘policy succession’). Die opvolging kan de vorm hebben van oude schoenen inruilen voor nieuwe (‘replacing’), van een beleidsuitsplitsing (’policy split’) of integratie doordat bijvoorbeeld enkele wetten worden samengevoegd tot een nieuwe (denk aan de Wet milieubeheer). Ook andere vormen zijn mogelijk, zoals volumebeperking. Opdrachtresearch kan in dergelijke discussies een rol spelen naast informatie op de opiniepagina’s, expert meetings en de opstelling van belangenorganisaties.  

      Hebben de andere benaderingen nog betekenis?

      De grenzenwerk-aanpak (‘boundary work’) is primair door de Twentse hoogleraar Rob Hoppe ontwikkeld om zicht te krijgen op de relatie tussen onderzoek en advies van planbureaus en de Nederlandse rijksoverheid en daarom hier minder relevant. Hoppe heeft deze aanpak ontwikkeld als basis voor een onderzoeksprogramma naar expertadvies. Deze auteur meent dat de ‘utilization research’ voor zijn doel te instrumentalistisch is en daarmee ‘doorgeslagen’ is; een verschraalde aanpak die bovendien te veel uitgaat van eenrichtingsverkeer tussen onderzoek en advieswerk van planbureaus enerzijds en de beleidsorganisatie anderzijds. Dat eenrichtingsverkeer wordt wel heel duidelijk verwoord door de term ‘doorwerking’ (Bekkers et al., 2004) die sommigen hanteren in plaats van ‘benutting’ of ‘gebruik’. ‘Doorwerking’ is een eenzijdige term, meent Hoppe (2007, 2008, 2010, 2012). Hoppe spreekt van te consumentistisch denken, alsof beleidsvoerders met onderzoek een ijsje kopen in een winkel. Een ‘ijsje’ is hier de metafoor voor ‘een onderzoek bestellen’ waarbij de beleidsvoerders ‘de volgers’ zijn. Het toeschrijven van beleidswijzigingen of beleidsbevestiging aan een onderzoek zou bovendien uitlopen op een expertocratie. Dat zou niet alleen een onwenselijkheid zijn, zo gaat die benutting van onderzoeksbevindingen (zoals van benchmarkings, visitaties van bestuurskrachtmetingen) in beleid ook niet in de werkelijkheid.

      Het eerder al aangeduide interactiegericht denken vat de verhouding tussen wetenschap en beleid daarentegen veel beter, aldus Hoppe. Over opdrachten en opdrachtformuleringen wordt immers overlegd of zelfs onderhandeld tussen opdrachtverleners en opdrachtnemers; in de beleidsanalyse worden dit de entree-onderhandelingen genoemd. En beleidsvoerder en onderzoekers hebben gaande een onderzoek vaak ook contact, al of niet via een begeleidingscommissie. Dat kan leiden tot een uitbreiding van het onderzoek of een aanbeveling nog vóór het onderzoek afgerond is. Soms wordt een onderzoek daarmee al gebruikt vóór het onderzoeksverslag verschenen is. In de ‘utilization’-traditie moet dan gezocht worden naar ‘taal’ om dit effect te verwoorden.

      Overigens trekt Roel in ’t Veld de grenzenwerk-aanpak nog een stuk breder. Of onderzoek benut wordt, heeft ook van doen met de heersende probleemduiding (routinematig probleem, wicked problem?, enz.) en het heersende discours (In ’t Veld, 2010: 83-100). Discursief onderzoek dat handelt over een andere wijze van kijken naar een vraagstuk, zal vaak genegeerd worden tot het moment dat het dominante discours sneuvelt of getransformeerd wordt in een nieuw overstijgend perspectief.

      We zullen verderop zien dat de kritiek wel onderkend is en dat daarom in de ‘performance’-literatuur een meer interactiegerichte benadering wel degelijk terug te vinden is (zie Moynihan, 2008). Auteurs als Weiss (1980) en Weiss en Bucuvalas (1980) hebben gewezen op het percolator-effect: onderzoeksinformatie raakt in de discussie over beleid vermengd met andere informatie waarover belanghebbenden en anderen beschikken.

      We komen bij het als derde genoemde perspectief op gebruik of benutting van toegepaste research dat enige diensten kan bewijzen bij het begrijpen van gebruik van evaluatierapporten. Het perspectief van de lerende organisatie gaat ons inziens te weinig uit van de onderzoeksverslagen en sterk van ‘leren’ als afhankelijke variabele. Maar we komen beschouwingen over ‘organisational learning’ en ‘the uses of performance information’ wel tegen in studies over gebruik van prestatiemetingen (Van Dooren & Van de Walle, 2008; Askim, 2007).

      In het pragmatische, meer bedrijfseconomisch gerichte perspectief worden vragen gesteld over de waardering van een meetinstrument in de organisatie, wordt nagegaan in hoeverre de uitkomsten ervan worden geaccepteerd en welke verbeteringsacties naar aanleiding daarvan worden ondernomen. Van Helden et al. (2005) deden bijvoorbeeld onderzoek vanuit dit perspectief naar benchmarking van bedrijfsvoering bij waterschapsorganisaties (ook Tillema & Van Helden, 2003; Van Helden & Tillema, 2004, 2005). Deze sterk economisch gerichte aanpak is voor zover we zien vooral op benchmarking gericht, maar is ook te combineren met de ‘utilization research’.

      In deze economische theorie worden hypothesen van de volgende soort geformuleerd (ontleend aan Van Helden & Tillema, 2004):
      H1: De gemiddelde prestatie van organisaties zal verbeteren met achtereenvolgens uitgevoerde benchmarkingoperaties.
      H2: De prestatieverschillen tussen organisaties zullen verminderen met achtereenvolgens uitgevoerde benchmarkingoperaties.
      H3: Slecht presterende organisaties zullen door benchmarking sterker worden geprikkeld ter verbetering van hun prestaties dan goed presterende organisaties.
      H4: Naarmate binnen een overheidsorganisatie meer de indruk bestaat dat door deelname aan (onderdelen van) een benchmarkproject of door prestatieverbetering het bestaansrecht van de organisatie kan worden vergroot, wordt het waarschijnlijker dat de organisatie kiest voor deelname of prestatieverbetering.
      H5: Naarmate de omgeving van een overheidsorganisatie hechtere relaties onderhoudt met andere organisaties binnen het organisatieveld, wordt het waarschijnlijker dat de organisatie kiest voor deelname aan (onderdelen van) een benchmarkingproject of prestatieverbetering.
      Zo kan men doorgaan.

      Tot zover de vier genoemde benaderingen: ‘utilization research’, grenzenwerk-aanpak, de aanpak gericht op ‘leren’ en de meer bedrijfseconomische benadering. De eerstgenoemde benadering wordt nu verder uitgewerkt.

    • De klassieke benadering van ‘the uses of performance information’: twee thema’s

      De klassieke ‘utilization’-benadering gericht op de benutting van toegepast sociaalwetenschappelijk onderzoek kent twee centrale themata van onderzoek die van belang zijn voor het begrijpen van aspecten van benutting van bevindingen (dus uitkomsten) van bijvoorbeeld visitaties of audits.

      1. Het eerste thema betreft de vraag naar de mate van benutting en de vorm van benutting van bevindingen uit toegepast onderzoek.

      2. En het tweede thema betreft de verklaring van matige of juist heel ‘krachtige’ benutting.

      Beide thema’s komen nu aan bod.

    • Mate en vorm van benutting in de klassieke benadering – eerste thema

      Het eerste thema betreft de mate van benutting of gebruik van rapportages en bevindingen daaruit (ook wel intensiteit van benutting genoemd), en de vorm van benutting. De mate en vorm van benutting zijn op grofweg drie manieren te onderzoeken en ook onderzocht:

      1. door uit te gaan van een concreet onderzoek als vertrekpunt bij het zoeken naar benutting (fasenaanpak; lees: intensiteitsmeting);

      2. door uit te gaan van potentiële gebruikers, zoals ambtenaren en bestuurders (wat is hun zoekgedrag met betrekking tot informatie?);

      3. door uit te gaan van interactie (bijvoorbeeld analyse van standpunten en de onderbouwing daarvan; en van debatten); auteurs die veel op hebben met ‘boundary work’, benadrukken overigens deze derde mogelijkheid.

      Achtereenvolgens wordt op elke manier ingegaan.

      a. We gaan eerst uit van onderzoek, de eerstgenoemde aanpak. Hoe bereikt een onderzoeksrapportage van toegepast onderzoek in een organisatie de doelgroep van beleidsvoerders en eventueel netwerkpartners? Als een in opdracht van een overheid uitgevoerd onderzoek conclusies en daaraan gerelateerde handelingsperspectieven biedt, maar de ontvanger neemt daarvan niets mee in de bezinning op bestaand of toekomstig beleid, dan spreekt men van onderbenutting of van ondergebruik. De termen gebruik en benutting gelden hier als synoniem en worden hier door elkaar gebruikt.

      Non-gebruik komt ook voor. Non-gebruik betekent dat een onderzoek al bij binnenkomst de la in gaat en er niet meer uitkomt. Daarvan bestaan meerdere varianten, zoals selectief gebruik (Kerseboom, Leeuw & Elte, 2007; Kerseboom, 2008).

      Besmette informatie. De manier waarop informatie wordt verzameld, is nogal eens bepalend voor de bruikbaarheid. Neem onderzoek naar de doeltreffendheid van beleid in de vorm van prestaties die worden afgezet tegen oorspronkelijke contracten of doelstellingen. Als dergelijk onderzoek in een interbestuurlijke setting regelmatig plaatsvindt, roept dat strategisch gedrag op bij personen die aantallen kunnen beïnvloeden, waarmee de meetmethoden aan waarde inboeten. Daarmee hebben we de eerste vorm van non-gebruik te pakken: verkeerde of ‘besmette’ informatie ontvangen.

      Selectief winkelen. Een tweede vorm van non-gebruik houdt in dat beschikbare beleidsinformatie genegeerd wordt. Bijvoorbeeld, er wordt selectief gewinkeld waarbij wat bruikbaar is voor voornemens en argumentaties gebruikt wordt en wat daarbij niet past genegeerd wordt. Hier kan sprake zijn van onethisch handelen of bedrog.

      Zwakke onderbouwingen. Een derde vorm van non-gebruik is het nemen van beleidsbeslissingen zonder onderbouwing. Soms wil een kabinet iets ondernemen maar blijft onduidelijk waarom en wat het daarmee wil bereiken. De commissie-Dijsselbloem die vernieuwingen in het onderwijs bestudeerde, trof gebrekkige onderbouwingen aan (Kerseboom, 2008: 45).

      Als een onderzoek wordt aangewend voor legitimatie van iets waarover het onderzoek niet gaat en niet veel zegt, wordt gesproken van misbruik van onderzoek (Köbben en Tromp, 1999; Köbben, 2003). Over dit laatste hebben we het hier verder niet. We gaan dus uit van de veronderstelling dat misbruik van bijvoorbeeld evaluatierapporten hier geen punt van onderzoek is. Als een ‘gebruiker’ gaat shoppen in een rapport om te zien of er iets van zijn gading te vinden is, is de kans groot dat sprake is van ‘selectief gebruik’: het ene meenemen in de beschouwing en wat niet past of uitkomt ‘weglaten’.

      De vaststelling van de mate of intensiteit van benutting geschiedt vaak aan de hand van een fasenconcept (‘stages’-approach; Van de Vall, 1980). Denk maar eens aan de volgende fasen. Wordt een rapportage van een onderzoek ontvangen en komt het bij de goede behandelaar terecht of niet?; wordt vervolgens ook van de inhoud van het rapport kennisgenomen of niet? (slechts van de samenvatting?); wordt het rapport daarna bestudeerd en verwerkt of niet?; wordt de inhoud van het rapport dan besproken of niet?; worden naar aanleiding van het rapport standpunten ingenomen en naar derden gecommuniceerd voor het debat of de vaststelling?; enzovoort. Een dergelijke fasenbenadering kan laten zien dat het doorsijpelen van een rapport snel of traag gaat of dat een rapport ergens in een bepaald verwerkingsstadium ‘blijft hangen’, bijvoorbeeld omdat de politiek-bestuurlijke urgentie om er iets mee te doen er niet is of verlopen is. Het onderzoek van Mark van de Vall (1980) naar benutting van 120 toegepaste onderzoeken door overheidsorganisaties laat zien hoe de fasenaanpak is uitgevoerd en wat zijn onderzoek naar gebruik van de 120 projecten opleverde. Wie wil begrijpen of sprake is van ondergebruik of onderbenutting van evaluatierapporten, kan deze aanpak dus toepassen.

      Er bestaan verfijndere benuttingsladders. Van de Vall is niet de enige die denkt in termen van fasen of niveaus van benutting. Van Hoesel (2003) onderkent vier fasen: 1. reacties in het veld, de pers en ‘de’ politiek; 2. verwerking van het resultaat door beleidsmakers in het beleidsproces; 3. invoering van nieuw beleid; 4. effecten van dit nieuwe beleid. Deze indeling achten we te grofmazig. Een verfijndere indeling is de volgende benuttingsladder:

      1. ontvangst van het rapport (‘weet hebben van ...’);

      2. waarneming dat ambtenaren de rapportinhoud op hoofdlijnen kennen;

      3. interne discussie over de inhoud van het onderzoeksrapport door relevante ‘gebruikers’;

      4. pleitbezorging (‘advocacy’) doordat sommigen intern of in een netwerk met het onderzoek in de hand ‘gebruik’ aan de orde stellen;

      5. in een ambtelijk stuk naar het onderzoek verwijzen (‘citation’);

      6. adoptie doordat het onderzoek meegenomen is in de opstelling, en de keuze of besluitvorming beïnvloed heeft (eventuele verwijzing in een bestuurlijk gedragen stuk);

      7. ‘impact’ doordat het onderzoek tot wezenlijke actie aanzette;

      8. determinatie: doordat het onderzoek de keuze (nagenoeg) bepaald heeft (vergelijk Landry et al., 2003).

      Is onderbenutting daadwerkelijk waargenomen?
      Onderbenutting is waargenomen, maar wel in een onderzoek waarin een ‘strenge’ methode is toegepast. In een onderzoek van Mulder et al. (1991) is namelijk het accent gelegd op schriftelijke bronnen om aanwijsbaar gebruik van evaluatieonderzoeken bij de rijksoverheid waar te nemen. In hun onderzoek is bezien of evaluatierapporten (direct en instrumenteel) bruikbaar waren en is gelet op de context voor het gebruik. Hiervoor zijn indicatoren gebruikt. Uit dat onderzoek bleek dat voor minder dan de helft van de rapporten sprake was van aanwijsbaar schriftelijk gebruik. Mulder staat niet alleen in de vaststelling van ondergebruik of meer en minder gebruik. Van de Valls onderzoek is hiervan doordrenkt.

      Als er van een zekere mate van benutting sprake is, is vervolgens de vraag: in welke vorm? Voor het vaststellen van de feitelijke vorm van (positieve) benutting wordt onder meer gebruikgemaakt van de volgende begrippen: direct en indirect gebruik (of directe en indirecte benutting); gebruik op de lange of korte termijn; en instrumenteel of conceptueel gebruik (Korsten, 1983). Ook andere begrippen worden gebruikt, waarover verderop meer.

      Onder ‘direct gebruik’ wordt verstaan dat een rapport rechtstreeks op de bureaus van de gevisiteerden komt en verwerkt wordt in beleidsvoornemens. ‘Indirect gebruik’ daarentegen impliceert dat een rapport een tijd blijft liggen en onderdeel wordt van het recenserend forum en/of discussie met belangengroepen of anderen. Het gebruik vindt als het ware via een omweg plaats. Na zekere tijd wordt de informatie dan met andere informatie samengebracht in een notitie of beleidsvoorstel. De kennisverwerking krijgt zo een soort percolator-effect, deze sijpelt geleidelijk met andere informatie door; op kortere of langere termijn. Carol Weiss (1980) noemde dit ‘knowledge creep’. Is er ook sluipend gebruik van evaluatierapporten geweest?

      Een rapport kan instrumenteel gebruikt worden of conceptueel. Instrumenteel gebruik verwijst naar maatregelen die alleen of voornamelijk zijn terug te voeren op een onderzoeksrapport. Bijvoorbeeld, een rapport brengt een wantoestand aan het licht en daarop wordt de directeur van een instelling op non-actief gezet en het ‘lek gedicht’.

      Conceptueel gebruik impliceert dat de kijk op een vraagstuk verandert en misschien wel leidt tot een paradigmaswitch in beleid (‘reframing’; Korsten, 1988; Schön & Rein, 1994). Iets dergelijks is wel voorgekomen met rapporten uit de onderwijssociologie. Rapporten uit die discipline zijn ten tijde van het ministerschap van de onderwijssocioloog Jos van Kemenade wel gebruikt om (meer en anders) te gaan denken in termen van (sociale) gelijkheid en ongelijkheid van kansen van leerlingen (Korsten, 1983).

      Terwijl de impliciete norm bij toegepast (opdracht)onderzoek vaak is: direct, instrumenteel gebruik op de korte termijn, blijkt in de praktijk nogal eens dat onderzoek juist indirect, conceptueel en op langere termijn doorwerkt in beleid (o.a. Korsten, 1983). Wat is bij evaluatierapporten het geval? Aannemelijk is dat hier sprake is van het volgende te verwachten direct, instrumenteel gebruik op kortere termijn.

      Er is – zoals gesteld – niet alleen onderzoek naar gebruik van prestatie-informatie (‘the use of performance information’) dat uitgaat van het onderzoek zelf en daarna de benutting in fasen volgt, de routing (direct, indirect gebruik) of de termijn waarop gebruik plaatsvindt, maar ook specifiek onderzoek onder bestuurders (onder b genoemd; Ter Bogt, Askim) en onderzoek naar benutting vanuit een interactieperspectief (aanpak c; Moynihan).

      b. Bij onderzoek naar gedrag van bestuurders en eventueel ambtenaren gaat het dus om een vertrekpunt vanuit potentiële of werkelijke gebruikers, bijvoorbeeld door te kijken naar hun informatiezoekgedrag en hun vaardigheden om om te gaan met prestatie-informatie. Ter Bogt (2001, 2003, 2004) deed in Nederland onderzoek onder wethouders naar hun (non-)gebruik van uitkomsten van prestatiemeting. Hij stelde vast dat wethouders dergelijke veelal kwantitatieve informatie, bijvoorbeeld uit benchmarkings, maar weinig gebruiken, op de wethouders financiën na. Ze geven de voorkeur aan mondelinge contacten met ambtenaren en anderen, die de essentie van uitkomsten uit prestatiemetingen kunnen weergeven en direct deze informatie kunnen interpreteren en in een bredere context kunnen plaatsen. Dat werkt sneller en biedt meer. Een teleurstellende bevinding voor fanaten op het gebied van ‘leren’, en ook voor al degenen die menen dat prestatierapporten onmiddellijk op grote schaal benut worden. Van de andere kant een begrijpelijk resultaat, want Henri Mintzberg had in zijn dissertatie al vastgesteld dat veel leidinggevenden in organisaties minder studieus zijn dan gedacht; ze halen hun informatie mondeling en telefonisch bij vertrouwelingen in de organisatie. Begrijpelijk ook, want benchmark-rapporten roepen soms meer vragen op dan ze beantwoorden (Leeuw, 2003a en 2003b). Dergelijke rapporten zijn hier als voorbeeld genoemd.

      Maar dit is niet het hele verhaal. De uitkomsten van vergelijkende prestatiestudies (benchmark-studies) worden toch vaak door (gemeente)bestuurders wel van belang gevonden (Ter Bogt, 2005: 51). Het toegekende belang betreft dan niet zozeer de waardering van de precieze informatie over ‘goed’ of ‘slecht’ presteren en zeker niet de achtergronden daarvan, want die zijn in benchmark-studies vaak niet uitgewerkt. Maar de scores kunnen in vergelijkend perspectief toch iets zeggen. Is de score van de organisatie in vergelijking met andere organisaties voldoende of beter, dan is de kans op geen actie (‘non-gebruik’) groot. ‘Van wat voldoende of meer dan dat is, moet je blijkbaar afblijven.’ Zeker als daar bij komt dat de benchmark over een politiek niet erg gevoelig en prioritair thema gaat, zoals met gemeentelijke dienstverlening nogal eens het geval is (omdat de kwaliteit van de dienstverlening voldoende of ruim voldoende is; Abma & Korsten, 2009a). Maar stel dat de scores onvoldoende of matig zijn, dan kan bezinning op een benchmark-studie wel volgen. ‘Dat kan aanleiding zijn tot het verrichten van nader onderzoek naar de achtergronden van een bepaalde score in de eigen organisatie’ (Ter Bogt, 2005: 51). Bijvoorbeeld door bij andere organisaties navraag te doen of door nader onderzoek te doen. De gebruiksvorm luidt dan: de ene studie roept een andere studie op. Het is ook mogelijk dat nagegaan wordt welke politieke keuzen een andere organisatie maakte.

      Onderzoek naar benchmarking haalt de relevantie van het begrip ‘gebruikswaarde’ van onderzoek naar voren (zie ook Van de Vall, 1980). Veel geïnterviewden uit het onderzoek van Ter Bogt geven aan ‘dat de gegevens in benchmark-studies lang niet altijd goed te interpreteren en werkelijk vergelijkbaar zijn’ (Ter Bogt, 2005: 51). De gebruikswaarde van een studie is gering als een benchmark-studie de gebruiker voor leesbaarheidsproblemen plaatst (over opzet, methode van onderzoek, conclusies; gebruik van jargon), de bevindingen uit een studie moeilijk of niet te interpreteren zijn, en een studie geen verbeteroriëntatie biedt en geen concrete, uitvoerbare aanbevelingen. Daardoor ligt de functionaliteit van benchmark-studies onder vuur, aldus Ter Bogt (2005: 52).

      Askim (2007) deed onderzoek naar informatiezoekgedrag van Noorse gemeentebestuurders (‘councillors’) en de vraag of deze bestuurders de informatie gebruiken om een politieke keuze in de politiek-bestuurlijke arena te ondersteunen of te verwerpen. Daartoe formuleert hij een aantal contraire hypothesen (aangeduid met H) vanuit een behoefteperspectief (a) en een vaardighedenperspectief (b).
      H1a luidt: Gebruik van prestatie-informatie (PI) is het grootst onder ‘backbenchers’ in het bestuur, dus – bot gesteld – onder de tweede garnituur. De contraire H1b-hypothese luidt: Gebruik van PI is het grootste onder ‘frontbenchers’, dus onder de bestuurlijke voormannen en -vrouwen.
      H2a luidt: Gebruik van PI is het hoogste onder leden van oppositiefracties. De tegengestelde H2b luidt: Gebruik van PI is het hoogste onder leden van coalitiefracties.

      Dit zijn slechts voorbeelden. Zijn onderzoek laat onder meer zien dat ‘backbenchers’ en burgemeesters PI minder gebruiken dan ‘frontbenchers’ (2007: 166). Het gebruik wordt niet beïnvloed door het feit of bestuurders deel uitmaken van de oppositie of de machtscoalitie. Een achtergrondvariabele blijkt wel relevant. Het gebruik van PI is het laagste onder ‘the best-educated councillors’ (2007: 167). Politieke ervaring maakt blijkbaar uit maar in een verrassende richting. Hoe meer politieke ervaring in het lokaal bestuur, hoe minder gebruik er van prestatiemeting gebruik wordt gemaakt. Veteranen gebruiken prestatie-informatie minder dan jonkies. Deze uitkomst sluit aan op een bevinding van Melkers en Willoughby (2005), die stellen: ‘the longer one’s employment in government, the less one used performance information’.

      Hoe is dit te verklaren? De ervaren en hoger opgeleide bestuurders weten dat je beleid niet zo maar verandert met een boekje met prestatie-informatie in de hand. Er is veel continuïteit (Askim, 2007: 168).

      Gebruik van PI blijkt overigens ook te maken te hebben met de stijl van gemeentebestuurders. Machtsgerichte bestuurders en politici relativeren prestatie-informatie, ombudsachtige types halen andere informatie elders, terwijl de compromiszoekers onder politici zich richten op het interne spel in bestuurlijke arena’s. Vertegenwoordigers van deze stijlen hebben niet veel op met prestatie-informatie. Hier zitten niet de hongerige gebruikers van benchmarkinformatie of van andere prestatiemetingen.

      c. Dan was er ook nog een derde benadering om benutting van prestatie-informatie in beeld te krijgen, niet door uit te gaan van het onderzoek als onafhankelijke variabele (fasenaanpak enz.) noch van bestuurders of ambtenaren (zoekgedrag van informatie in kaart brengen), maar door uit te gaan vanuit een interactief dialoogperspectief. Moynihan zegt in zijn boek The Dynamics of Performance Management (2008) dat performance managementsystemen op de veronderstelling berusten dat als er prestatie-informatie bestaat, deze vanzelf wel gebruikt zal worden en zal leiden tot betere beslissingen. Zo makkelijk verloopt die causaliteit echter niet. Evenmin is het zo dat bestuurders altijd en vanzelfsprekend en op eigen initiatief wel verguld zijn met prestatiemetingen. Prestatiemetingen zeggen doorgaans niets over de context waarop de feiten slaan en de implementatiemogelijkheden van uitkomsten. Hij prefereert daarom denken in termen van interacties tussen relevante belanghebbenden. Zijn stelling is dat bestuurders belangen hebben, zoals een positie behouden of een beleidsvoorkeur bevestigd willen zien of het budget willen vergroten. Of een belang om een bestuur of bestuurder zo snel mogelijk weg te krijgen of om beleid te veranderen. En prestatie-informatie wordt in dat kader genegeerd of geprezen. Anders gesteld, gebruikt wordt datgene wat in de kraam te pas komt. Als iets niet welgevallig is, wordt het genegeerd. Prestatiegegevens worden dus in arena’s bezien en vervolgens geïnterpreteerd, gebruikt, dan wel gekritiseerd. En dat gebeurt in geschreven teksten (nota’s, memo’s) en in oraal verband (tijdens presentaties en persconferenties, in debatten). Moynihan:

      ‘How individuals perceive performance data will depend on their individual background and beliefs and the institutional role they fill.’ (Moynihan, 2008: 16)

      Verder:

      ‘The various actors involved in the policy process can be expected to use performance information consistent with their interests. Agency actors will contribute to the dialogue in ways that protect agency preferences and budgets.’ (Moynihan, 2008: 17)

      De selectie van informatie richt zich op wat bruikbaar is. ‘The interactive dialogue perspective acknowledges that political preferences will dominate decisions’, but that does not mean that performance data is not used.’ We moeten dus beseffen dat uitkomsten van prestatiemetingen niet in een sprookjeswereld vol naïviteit terechtkomen.

      Conclusie

      Deze klassieke benadering vanuit de ‘utilization research’ om bij het opsporen van benutting slechts uit te gaan van onderzoek en rechtstreekse instrumentele benutting of doorwerking te verwachten, is als te instrumentalistisch gekritiseerd. Benutting kent vele andere vormen en functies. Hoppe (2008) waarschuwt terecht. Nadere studie leert ook dat veel recent onderzoek de verwachting van direct, instrumenteel gebruik van kennis sterk tempert. Deze benadering houdt te weinig rekening met belangen, met machtsverhoudingen en interactie (Hoppe, 2008: 15; De Kool, 2007a, 2007b, 2007c, 2008). De interactieve benadering (zoals geformuleerd door Moynihan, 2008) houdt daar al meer rekening mee.

      Wie de omvang en vorm van benutting van bijvoorbeeld evaluatierapporten bestudeert, kan volgens drie complementaire benaderingen werken: (a) uitgaan van de rapporten en de routing volgen (report analysis; eerder benadering a genoemd), (b) uitgaan van het zoekgedrag van ambtenaren en bestuurders (search analysis), of (c) een analyse maken van arenagedrag en dus onder meer van gebruik van rapporten en van argumenten in debatten en rekening houden met belangen en macht (interactive analysis). De Kool (2007a, 2007b en 2007c; 2008) komt in verband met een studie naar interbestuurlijke monitoring met een driedeling in benaderingen die hij aanduidt als de rationalistische, sociale en politieke benadering. ‘Report analysis’ schaart hij onder de rationalistische optiek.

      Tegenover al deze verbredingen in optiek staat dat er wel degelijke evaluaties en toegepaste onderzoeken voorkomen die bedoeld zijn om direct te benutten. Een toezichthouder als de inspectie hoger onderwijs ziet zelfs toe op direct gebruik van evaluaties van het wetenschappelijk onderwijs (dus van visitatierapporten).

      ‘When a review report comes out, the recipients of review recommandations must consider action on it, and this action has to fit in the existing practices, beliefs and traditions.’ En: ‘The review system has some in-built mechanisms to ensure that some action is taken’, aldus Jeliazkova (2002: 3).

      We moeten dus niet doorslaan met de relativering van direct gebruik op korte termijn.

    • Verklaringen van afwezige of geringe benutting in de klassieke benadering – tweede thema

      Het in het voorgaande als eerste behandelde thema in de ‘utilization research’ betrof de mate van benutting of gebruik en de vorm van gebruik, het tweede themacomplex gaat over de verklaring van geringe of juist krachtige benutting, of van minder of meer benutting (of gebruik). Daarop gaan we in het vervolg in.

      In de literatuur zijn drie clusters aan theorieën te vinden voor een verklaring van onderbenutting of juist sterke benutting (Caplan, 1979; Korsten, 1983; Van Oijen, Snellen & Van Westerlaak, 1984):

      • het eerste cluster verklaringen betreft de ‘knowledge constraints’-verklaringen,

      • het tweede cluster betreft de ‘policy constraints’-verklaringen, en

      • het derde cluster betreft de ‘two communities’-verklaringen.

      Deze drie verklaringsrichtingen zijn op drie niveaus te onderzoeken (zie figuur 1). Het zijn als het ware drie schillen, waarbij het tweede en derde niveau inwerken op het eerste:

      • het eerste niveau of het projectniveau van individuele onderzoekingen (is juist dit onderzoek niet benut en waarom dan?);

      • het tweede niveau of het structurele niveau, dus dat van de organisatie (bijv. ligt het niet benutten aan het management van het onderzoeksinstituut waarin geen plaats is voor bezinning op gebruik?; idem, geen bezinning bij de overheidsorganisatie?);

      • het derde niveau, het culturele niveau (bijv. is niet-benutting terug te voeren op de houding en opvattingen van onderzoekers of beleidsvoerders?).

      Figuur 1Verklaringsmogelijkheden voor geringe benutting van onderzoek in overheidsbeleid (Korsten, 1983)
      Niveaus van analyse van mate van gebruik
      Niveau van onderzoeksprojectStructureel of organisatieniveauCultureel niveau in organisatie of sector
      a. Onderzoek en de onder-zoeker1a: factor ‘kwaliteit van onderzoek’; reputatie onderzoeker2a: bijv. in onderzoeks-instituut geen sprake van reflectie op bruikbaar onderzoek?3a: houding en opvat-tingen van onderzoekers: desinteresse in gebruik?; gering politiek gevoel
      Verklaringenb. Beleid en de beleids-voerders1b: bijv. resultaten te laag ingebracht in gebruikersorganisatie?2b: verbinding tussen kennisproductie en gebruik; organisatie van bezinning op onderzoek is gebruikelijk?3b: houding en opvat-tingen van ambtenaren; geen ontvankelijk-heid voor onderzoek
      c. Commu-nicatie1c: bijv. taal waarin bevindingen worden geformuleerd; ontmoeten gebruikers onderzoekers tussen-tijds?; begeleidings-commissie?2c: bijv. samenstelling begeleidingscommissie; ‘knowledge utilization as a networking process’3c: cultuur van gescheiden werelden

      De meeste studies naar de verklaring van meer of minder benutting zijn verricht op projectniveau en betreffen verklaringen die te situeren zijn in de cellen 1a, 1b en 1c. Ze gaan voor een aantal onderzoekingen na wat de reden is voor matig of juist sterk gebruik van bevindingen of meer of minder gebruik. Een studie van Van de Vall (1980) zit duidelijk in deze hoek. Ook onderzoek naar gebruik van resultaten van evaluatieonderzoek of benchmarkings is hier te plaatsen.

      Bij deze figuur plaatsen we overigens twee kanttekeningen. Ten eerste is soms onduidelijk in welk cluster een verklarende factor precies zit. Ten tweede oogt de figuur statisch. In werkelijkheid kunnen factoren in elkaar grijpen of kan de ene factor bevorderend of remmend werken op een andere die dreigende onderbenutting of juist sterke benutting naderbij brengt.

      Wie zicht wil krijgen op het procesverloop rond een onderzoek dat uiteindelijk wel of niet benut wordt door een opdrachtgevende overheidsorganisatie, kan een projectbiografie opstellen, een idee dat ooit is gelanceerd door Ig Snellen. Zo is het bijvoorbeeld mogelijk de onderbenutting van zeg vijf evaluatieonderzoekingen te bestuderen door van elk een projectbiografie op te stellen waarin alle potentiële variabelen uit figuur 1 in de tijd aan bod kunnen komen. In een projectbiografie komt het onderzoek X aan bod vanaf het moment dat de opdracht nog niet eens geformuleerd was tot – stel – een jaar na het verschijnen van de onderzoeksresultaten. We noemen dit de biografische benuttingsanalyse. Deze aanpak is overigens nog vrijwel nooit toegepast, maar is volgens ons heel interessant omdat daarmee de verschuivingen in de interacties (organisaties, personen, belangen en macht) en de ‘impact’ daarvan op het projectverloop en de bezinning op uitkomsten van onderzoek in beeld kunnen komen.

      Toch is de genoemde figuur nuttig, bijvoorbeeld om te zien welke factoren in werkelijkheid zoal (g)een rol spelen. We lopen daarom de clusters langs. De figuur heeft bovendien als positief kenmerk dat de driedeling in clusters en niveaus internationaal erkend is.

    • Eerste verklarend cluster: factoren aan de kant van onderzoeker en onderzoek

      De verklaring voor meer of minder gebruik of van onderbenutting zoeken aan de kant van onderzoek en de onderzoekers (‘knowledge constraints’) impliceert dat zwakke benutting of onderbenutting wordt toegeschreven aan een gebrekkige kwaliteit van het onderzoek of van de onderzoekers. Het onderzoek wordt niet benut omdat de onderzoekers bijvoorbeeld het verkeerde hebben onderzocht en/of niet de goede waarnemingsmethoden kozen en/of anderen methodische zwakten aan de dag legden, zoals een gebrekkig concluderende kwaliteit of het ontbreken van aanbevelingen of van aanbevelingen die niet goed aansluiten op de bevindingen (Korsten, 1983).

      Is gebrekkige kwaliteit van onderzoek wel aan de orde? Is er bewijs voor dat dergelijke factoren een rol spelen als verklaring? Nogal eens wordt in dit verband benchmarking op de korrel genomen. In het rapport Wil tot verschil; gemeenten in 2015 (Commissie-Bovens, 2006) wordt betoogd dat benchmarking gemeentebesturen aan banden legt. Twee nadelen worden gearticuleerd. Benchmarkings werken nivellerend in plaats van onderscheidend en ze miskennen de zegeningen van verschillen tussen gemeenten (‘wij lopen achter ten opzichte van het benchmarkgemiddelde’). Benchmarking belemmert dus de pluriformiteit in gemeenteland. De eigen omstandigheden, lokale kennis en afwegingen worden door benchmarkings weggemoffeld als middel tot verantwoording van een gemeentebestuur naar de gemeenteraad en samenleving. Dat veronderstelt dat benchmarking ook daadwerkelijk gebruikt wordt en tot keuzen leidt. Is daar grond voor?

      Ter Bogt (2005) is kritisch over benchmarking. Benchmarking, dus organisatievergelijking, kan zinvol zijn om prestaties te verbeteren, zo stelt hij, maar de gegevens en conclusies van benchmarkrapporten zijn niet altijd goed te interpreteren. De achtergrond van scoreverschillen tussen gemeenten wordt ook niet duidelijk. Gemeente X scoort ruim voldoende in een benchmark, maar waarom? Gemeente Y scoort onvoldoende, maar waarom? Ligt dat aan de fysieke kenmerken van het territoir, aan het gedrag of de opvattingen van burgers of aan beleid of aan iets anders? Dergelijke informatie ontbreekt of is schaars in benchmarkrapportages. Daarmee raakt de gebruikswaarde van benchmarkings ernstig aangetast. Er wordt in de rapportages ook geen brug geslagen naar ‘hoe’ beleidsvoerders de conclusies zouden kunnen gebruiken. De vertaalslag naar beleid wordt niet of niet voldoende gemaakt. Toch maakt onderzoek van Ter Bogt ook wel duidelijk dat bestuurders een zekere interesse hebben in benchmarkings. Logisch want er kan ook een glamoureffect van uitgaan. Gebruik is vaak niet geheel afwezig. Op de gebruiksladder worden wel enkele stappen op treden gezet.

      Welke inzichten zijn er nog meer? De manier waarop het probleem in onderzoekbare termen is geformuleerd, blijkt van betekenis voor de benutting van latere bevindingen. Er moet dus een inhoudelijk rijke vertaling plaatsvinden van een beleidsproblematiek in een onderzoeksvraagstelling, een expliciete doelstelling en een onderzoeksstrategie. De doelstelling moet duidelijk maken wat men waarom wil weten en dus waaraan een bijdrage geleverd wordt. Mulder et al. (1991) stelden vast dat in de helft van onderzochte evaluatierapporten een doelstelling echter niet te vinden is.

      Het heeft ook een gunstig effect op ‘benutting in beleid’ als onderzoekers een grote hoeveelheid potentieel verklarende variabelen voor een verschijnsel gebruiken? Breed verklaren is beter dan smal verklaren? Ellemers heeft verdedigd dat het beter is om variabelen in beschouwing te nemen die ertoe doen en die je met overheidsbeleid kunt beïnvloeden (‘manipuleerbare variabelen’) dan dat een onderzoeker veel verklaart maar er weinig te veranderen valt (zie ook Ellemers, 1976; Hupe, 1984). Als men weet dat wapenbezit leidt tot meer geweld, heb je daar meer aan dan dat je weet dat erfelijkheid van invloed is op geweldsplegers. Want aan wapenbezit is wat te doen en aan de genetische kenmerken van mensen komen, is niet goed mogelijk of niet toegestaan. Terwijl de genetische factor misschien wel het meest verklaart. Dit is het dilemma van ‘veel kunnen verklaren en weinig kunnen veranderen’ genoemd versus ‘veel kunnen veranderen maar weinig kunnen verklaren’.

      De relevantie van de geleverde informatie speelt een rol bij het gebruik van een onderzoek. Bij benchmarking van dienstverlening zal onderzoek dus iets moeten zeggen over de kern van de dienstverlening (tijdigheid, klantvriendelijkheid, of de dienst kwalitatief goed is, enz.) en niet slechts iets over de openingstijden van het loket. Met een benchmark over marginale aspecten van dienstverlening zal weinig gebeuren.

      Een geloofwaardig verricht onderzoek zal beter benut worden. Onderzoek is geloofwaardiger als bij de informatieverzameling gebruik is gemaakt van meerdere waarnemingsbronnen. ‘Triangulatie’, het over elkaar leggen van informatie uit verschillende bronnen, is blijkbaar gunstig (Swanborn, 1999). Ook is positief als onderzoek zich positief verhoudt tot bestaand beleid. Onderzoek vergezeld van aanbevelingen, die het bestaande beleid op de kop zetten, wordt minder gebruikt. Wat niet uitkomt, wordt blijkbaar makkelijk ter zijde gelegd (Mulder et al., 1991; Weiss & Bucuvalas, 1980).

      Aan een onderzoek moet in het algemeen voldoende methodisch-technische kwaliteit ten grondslag liggen wil het tot gebruik of benutting komen. Een te lage kwaliteit in dit opzicht kan een reden zijn om het rapport niet te gebruiken (Mulder et al., 1991). Overigens worden ‘zwakkere onderzoekingen’ soms toch gebruikt, bijvoorbeeld als ondersteuning van beleid.

      Er zijn nog enkele voor de hand liggende factoren te noemen. Zo is timing van belang. Een onderzoek moet verschijnen op een tijdstip dat het ook gebruikt kán worden. Een korte doorlooptijd van het onderzoek zal het gebruik ook bevorderen (Mulder et al., 1991). Een andere factor is de presentatie van het onderzoek. De rapportage moet in het algemeen aansluiten op het begrip van de gebruiker(s) (Swanborn, 1999). Concrete en duidelijke bevindingen, conclusies en aanbevelingen zijn van betekenis om gebruik te stimuleren, zeker als ze de aandacht van ambtenaren, politici en anderen weten te trekken (Mulder et al., 1991). Onderzoek dat draagvlak heeft, zal kans maken om gebruikt te worden (Hupe & Van der Meer, 2006) maar onderzoek dat met een uitdagende of controversiële aanbeveling komt, kan ook gebruikt worden om debat te stimuleren of zich tegen af te zetten.

      We springen nu van het onderzoek naar de onderzoeker(s). Literatuurstudie wijst verder uit dat er onderzoek is gedaan naar de vraag of de reputatie van onderzoekers uitmaakt voor de mate van benutting van onderzoeksuitkomsten (Weiss & Bucuvalas, 1980). Een gunstige conditie is over het algemeen: vermaarde onderzoekers die een goed onderzoek verrichten, daarover excellent en leesbaar in fasen rapporteren met bruikbare (‘beleidsrelevante’) bevindingen komen en op een ‘goed’ tijdstip met bevindingen naar buiten komen (Weiss & Bucuvalas, 1980). Voor onderzoek kan men ‘visitatie’ lezen. Vertaling naar visitaties doet de stelling opkomen: maakt de reputatie van de visitatiecommissie uit voor de benutting van het visitatierapport aan de kant van de gevisiteerden? Het verwachte antwoord is ‘ja, dat maakt uit’: hoe beter de reputatie van de commissie is en hoe meer de commissie in het ‘veld’ erkend wordt, hoe groter de kans op benutting van de inhoud (en boodschap) van visitatierapporten. Maar het is zelden de enige factor. Ook de kwaliteit van het onderzoek (lees zelfevaluatie en visitatierapport) zelf maakt uit voor de benutting.

      Wie verdere inspiratie wil opdoen over factoren die er bij benutting in de Nederlandse context toe doen, kan onder meer terecht bij Van de Vall en Van Dijkum-De Jong (1979) en Van de Vall (1980). Van de Vall verrichtte een kwantitatief onderzoek naar benutting van 120 onderzoekingen die alle in opdracht waren uitgevoerd en waarbij sprake was van gebruik van methoden en technieken van sociaalwetenschappelijk onderzoek. Het ging onder meer om toegepast onderzoek op het vlak van ruimtelijke ordening. Steeds waren de resultaten neergelegd in een rapport. Van de Vall komt tot de volgende bevindingen.

      Onderzoek dat werd uitgevoerd door interne onderzoekers van een overheidsorganisatie, werd meer benut dan (uitbesteed) onderzoek dat door externe onderzoekers was uitgevoerd (1979: 19). Een redelijke mate van betrokkenheid van de interne onderzoeker van toegepast onderzoek bij beleidsmaatregelen had ook een gunstig effect op de benutting van een rapport in de beleidsvorming (Van de Vall & Van Dijkum-De Jong, 1979: 20).

      Gebruik van theorieën en abstracte begrippen in het onderzoek had daarentegen een ongunstig effect (1979: 23). Onderzoek mag methodologisch gezien wel nauwgezet zijn als het maar een ruimte-oriëntatie heeft op de informatiebehoefte van beleidsvoerders (1979: 25). Onderzoek moet dus beleidsrelevant zijn en de onderzoeker moet gevoel hebben voor wat speelt bij de beleidsvoerders en wat raakt aan zijn onderzoek, zodat hij daarop kan inspelen (bijvoorbeeld door publicatie van bevindingen op een moment dat die bevindingen er nog toe kunnen doen).

      Niet alleen de onderzoeker en het onderzoek werken in op benutting, ook rapportagefactoren blijken – zoals eerder gesteld – relevant voor het begrijpen van de benutting van onderzoek in beleid. Dikke rapporten worden minder benut dan minder dikke (Van de Vall & Van Dijkum-De Jong, 1979: 31).

      Het is in het algemeen ook gunstig als onderzoekers goed nadenken over de te hanteren communicatiestrategie en dus over de verspreiding. Alleen een rapport uitbrengen is ongunstig. Het tevens tussentijds informeren van de opdrachtgever en eventuele doelgroepen apart bedienen is juist gunstig, evenals het gedoseerd – in stukjes en beetjes – brengen van de bevindingen. Aan de kant van beleidsvoerders moet de ontvankelijkheid en aandacht voor het onderzoek blijkbaar kunnen groeien. De onderzoeker die weet te bereiken dat beleidsvoerders zelfs uitzien naar het onderzoeksrapport, heeft goed gewerkt. Dat zal des te beter lukken als de onderzoeker duidelijke conclusies uit het onderzoek weet te trekken.

      Onderzoeken waarvan bevindingen een rel veroorzaken of protest uitlokken, blijken beter benut te worden dan andere (Van de Vall, 1980: 179). Dat komt omdat het onderzoek dan ‘in de krant komt’ en actoren in het veld zich direct op het onderzoek storten (ze leggen een verbinding met macht en belangen). Dan is de kans groot dat parlementariërs schriftelijke of mondelinge vragen aan de betrokken bewindspersoon gaan stellen en het bij de beleidsvoerders direct ‘alle hens aan dek is’ (vragen moeten worden beantwoord, enz.).

      Conclusie: er is dus doorgaans geen sprake van monocausale werking van een goed onderzoek dat positief benut wordt. Wie als onderzoeker wil dat het onderzoeksrapport gelezen wordt, zal de ruimte moeten krijgen en grijpen om tal van handelingen te verrichten om het onderzoek in het beleidsnetwerk ‘te brengen’ en een communicatiestrategie moeten uitvoeren. De kans is groot dat onderzoek dat geen protest uitlokt, onbenut neervalt als een natte krant op de grond, tenzij andere actoren het oppakken. Dat oppakken heeft een onderzoeker niet helemaal in de hand.

    • Tweede verklarend cluster: factoren aan de kant van beleid en beleidsvoerders

      Wie de verklaring in de hoek van de overheidsorganisatie, het beleidsnetwerk en de beleidsvoerders zoekt, komt uit bij de manier waarop beleidsprocessen en andere processen verlopen aan de kant van de ontvangende partij, de ambtenaren in grote organisaties en de bestuurders. Deze factoren aan de zijde van potentiële en echte gebruikers zijn wel getypeerd als ‘policy constraints’.

      Het type organisatie blijkt in het algemeen van invloed op de benutting van onderzoeksresultaten. Is de organisatieleiding al langer bezig met prestatiemeting of niet? Is prestatiemeting gerelateerd aan de bestuurlijke ambitie of niet? Het interne ambitieniveau blijkt van invloed op benutting: hoe meer ambitie, hoe meer neiging om ook naar prestaties te kijken (Van Helden & Brouwer, 2005). Het maakt uit als er een leercultuur bestaat, dus als de leidinggevenden tonen dat ze onderzoek stimuleren om ervan te leren en ze de processen van bezinning ook stimuleren. Mulder et al. (1991) sluiten hierop aan. De aanwezigheid van procedureel-organisatorische voorzieningen ten aanzien van het starten van onderzoek, de uitvoering ervan en afhandeling van beleidsevaluatieonderzoek draagt bij aan de benutting van onderzoeksbevindingen. Hoe minder van deze voorzieningen voor onderzoeksprogrammering, bespreking en andere bezinning aanwezig zijn, hoe meer benutting afhankelijk wordt van ad hoc situaties of toeval. En als er ook nog eens door ambtelijke leidinggevenden vol hoon en scepsis gesproken wordt over evaluaties of benchmarks of ander beleidsonderzoek zegt dat veel: de kans is dan gering dat er veel met onderzoeksbevindingen gebeurt en dat ‘fact free politics’ regeert.

      Veel van de factoren uit dit cluster die van invloed zijn op benutting, hebben te maken met ‘verbindingen’ (Derksen, 2011: 118). Naarmate een onderzoek meer aansluit op het werk- en onderzoeksprogramma van een overheidsorganisatie (‘if any’), neemt de kans op benutting toe. Dan is immers sprake van geïnstitutionaliseerde ontvankelijkheid voor het onderzoek. Maar het is niet alleen een zaak van regels en procedures. Naarmate gebruikers meer betrokken zijn bij onderzoek, en ze het onderzoek dus van begin tot einde kunnen volgen, zullen ze zich er minder van distantiëren (Tijssen, 1988). Naarmate ambtenaren en bestuurders meer veranderingsgezind zijn en meer open staan voor innovatie, zal de kans op benutting ook toenemen (Swanborn, 1999). Zijn ambtenaren weinig veranderingsgezind, betrek ze dan tijdig bij het onderzoek, want dan zal hun weerstand vermoedelijk afnemen. Laat ze ‘meegroeien’.

      Onderzoekers hebben er ook voordeel bij als ze de ambtenaren en bestuurders kunnen begrijpen. Van der Meer et al. (2000) stelden vast dat de benutting van evaluatieonderzoek niet zozeer afhangt van de evaluatie zelf, maar vooral bepaald wordt door de directe en indirecte aansluiting van de evaluatie op de manieren van denken en doen van actoren in de overheidsorganisatie. In Can Governments learn? komt een vergelijkbare bevinding naar voren. Daarin is ingegaan op de vraag onder welke voorwaarden organisatorisch leren plaatsvindt en beïnvloed kan worden door evaluaties. Aangegeven wordt dat een continue inspanning nodig is om bruikbare informatie voort te brengen en samen te werken met gebruikers (Leeuw et al., 1994). Ook hier wordt dus het belang benadrukt van bruikbare kennis, van verbindingen, van netwerken.

      Een andere factor betreft het niveau waarop een onderzoek binnenkomt. Als een (in opdracht verricht) onderzoek laag wordt ingebracht in de opdrachtverlenende rijksorganisatie, is dat een conditie die gebruik ernstig bemoeilijkt; het is dus een barrière in een agenderingstraject. Immers, een onderzoek moet dan een lange route doorlopen alvorens dit onderzoek via ‘samenvatting op samenvatting’ in een departement of andere organisatie naar boven komt en uiteindelijk belandt op het bureau van degenen die ‘er echt over gaan’. Wie wil dat een onderzoek direct en snel benut wordt, moet zorgen dat het hoog in de organisatie wordt ingebracht en ook de relevante netwerkpartners bereikt.

      Samenvattend: relevant zijn institutionele kaders en ontmoetingsplekken, verbindingen, bruikbare kennis, zorgen dat gebruikers de bevindingen begrijpen, rapporten hoog inbrengen bij de juiste personen, leidinggevenden die ambitie hebben en willen innoveren. Is er nog meer? Het is mogelijk dat de beleidsvoerders qua opleiding niet erg vertrouwd zijn met het lezen en interpreteren van onderzoeksuitkomsten. Op het eerste gezicht is dit een triviale, bijna ‘ongeloofwaardige’ factor. Toch is de werking ervan aangetoond. Als men juristen een sociaalwetenschappelijk onderzoek naar abortusbrieven laat lezen, kan dat bijvoorbeeld iets krijgen van ‘schuring’ en ‘onbegrip’. Juristen zijn over het algemeen niet vertrouwd met sociaalwetenschappelijk onderzoek en/of begrijpen het niet of nauwelijks. Het woord ‘probleemstelling’, conceptualisering of ‘operationalisering’ is juristen doorgaans vreemd. Juristen weten ook niets van geavanceerde data-analyse. Ze vertrouwen sociaalwetenschappelijk onderzoek daarom ook minder. Volgens al wat ouder Duits onderzoek zijn de meeste zuivere juristen niet vertrouwd met sociaalwetenschappelijke methoden en technieken van onderzoek en maakt dat uit voor benutting van onderzoek (Friedrich, 1970; Korsten, 1983). Wat hier gesteld is over juristen, geldt ook voor personen met andere opleidingen waarin geen tot weinig substantiële aandacht is besteed aan methoden en technieken van sociaalwetenschappelijk onderzoek.

      Verbindingen leggen vergt een bepaalde cultuur. Daar willen we ook nog eens op wijzen (Derksen, 2011: 118). Zie cel 3b in figuur 1. En hoe is het dan met cel 2b: is de structuur van de overheidsorganisatie van belang voor de benutting van onderzoeksbevindingen? ‘Structure matters.’ We wezen al op de institutionele factor. De aanwezigheid van ‘grenswerkers’ binnen een departement doet er ook toe, stelt Derksen. die als ‘chief scientist’ werkzaam was bij het ministerie van VROM en dus van nabij heeft kunnen zien of zijn rol zoden aan de dijk zette (Derksen, 2011: 119). Grenswerkers kunnen discussies over onderzoeksbevindingen aanzwengelen en blootleggen waar onderzoek vergeten dreigt te worden.

      Zijn er meer positieve condities in dit cluster voor benutting van onderzoeksbevindingen te vinden? ‘Timing’ is van belang, het is al gezegd. De kennis moeten op het juiste tijdstip worden aangeleverd in de ambtelijke organisatie (Derksen, 2011: 118). De agenderingstheorie van John Kingdon (2003) biedt een voedingsbodem hiervoor. Onderzoeken, zoals visitaties, zijn volgens deze theorie effectiever als ze passen in een klik van drie stromen of die klik bevorderen: de verbinding tussen een reservoir aan problemen, oplossingen en politiek geschikte tijdstippen.
      Ook synchronie blijkt relevant. ‘Vaak zijn visitaties effectiever wanneer de organisatie erin slaagt ze synchroon te laten lopen met andere organisatorische trajecten’, aldus Schillemans (2009: 163), die onderzoek deed naar verantwoordingsprocessen met behulp van visitaties.

      Tot zover dit tweede cluster van verklaringen van de mate van benutting van onderzoeksresultaten.

    • Derde verklarend cluster: gescheiden werelden, gebrekkige communicatie

      De verklaring zoeken in de communicatie (‘two communities theories’) stuit op twee werelden, van onderzoekers en beleidsvoerders en netwerkpartners, die elkaar niet (goed) verstaan. Hier gaat het om de interactie. Wellicht hebben onderzoekers niet in de gaten dat een onderzoek voor moment x moet verschijnen omdat dan een debat aanstaande is over een bepaald verschijnsel waarop het onderzoek ook betrekking heeft. Een onderzoek moet op het geschikte moment verschijnen gezien de politiek-bestuurlijke context. Om de kans om elkaar niet goed te begrijpen te verkleinen worden vaak begeleidingscommissies ingesteld die letten op de kwaliteit van het onderzoek, de leesbaarheid van de rapportage en de onderzoekers doordringen van ‘betere en slechtere momenten van publicatie en openbaarmaking van uitkomsten’. Wordt dit in onderzoek uit de ‘utilization research’ bevestigd?

      Als een begeleidingscommissie het toegepast onderzoek begeleidt, blijkt dat een gunstig effect op de benutting te hebben, volgens het onderzoek van Mark van de Vall (1980: 169). Begrijpelijk, want in een dergelijke commissie zijn vaak (opdrachtgevende) ambtenaren opgenomen, ambtenaren die later met het onderzoek moeten ‘werken’, en representanten uit het onderzoeksveld. Zo’n commissie is dus ook een hulpmiddel voor onderzoekers die de commissieleden ontmoeten om zicht te krijgen en houden wat in het veld en in de overheidsorganisatie of politieke arena speelt.

      Ook blijkt dat het hanteren van (communicatieve) terugkoppelingsstrategieën een gunstig effect heeft op de benutting van onderzoeksresultaten in de beleidsvorming (Van de Vall & Van Dijkum-De Jong, 1979; Van de Vall, 1980). Voorbeelden van deze positieve strategieën zijn:

      1. het uitbrengen van tussenresultaten;

      2. het op een geschikt moment presenteren van onderzoeksresultaten, namelijk als de kans op politiek-bestuurlijke en ambtelijke aandacht groot is;

      3. het kiezen van een multimediale publicatiestrategie en dus het benutten van verschillende communicatiekanalen (niet alleen schriftelijke rapportages, maar ook mondelinge presentaties, enz.);

      4. het gedoseerd verstrekken van bevindingen (en niet alles tegelijk), waardoor de aandacht gevangen wordt, een onderzoek ‘in de week gezet wordt’ en men ernaar uitziet;

      5. het verstrekken van informatie over onderzoeksbevindingen aan verschillende doelgroepen, die deze informatie kunnen benutten om het bestuur te bestoken en eventueel ‘lawaai’ kunnen veroorzaken (Van de Vall & Van Dijkum-De Jong, 1979: 34).

      De betekenis van verbinding en communicatie bleek ook uit ander onderzoek. Dat wijst op de betekenis van georganiseerde bezinning, waarbij kennisgebruikers geholpen worden om na te denken over wat onderzoek voor hen kan betekenen. Reflectie werkt drempelverlagend en brengt onderzoeksbevindingen als het ware naderbij. Askim et al. (2008) onderzochten de leereffecten bij Noorse gemeenten. Het leereffect bleek groter onder gemeenten die hadden meegedaan aan benchmarkonderzoek en in netwerken georganiseerd waren, zeker als het netwerk heterogeen samengesteld was. De betekenis van netwerken blijkt ook bij Yin en Gwaltney (1981). Ze keken naar de manier waarop onderzoeksideeën op het federale niveau in de Verenigde Staten bruikbaar konden worden. Wetenschappelijke kennis kan het meest direct gebruikt worden als er een communicatienetwerk opgezet en onderhouden wordt. Het netwerk dient te bestaan uit kennisproducenten en gebruikers en het netwerk moet continu functioneren.

    • De belangrijkste verklaring

      Welke verklaring van deze drie clusters (factoren aan de onderzoek(er)skant belemmeren benutting, of factoren aan de beleidskant of factoren in de interactie?) is de belangrijkste om een bepaalde mate van onderbenutting te begrijpen? Onderzoek laat zien dat niet zelden alle drie de verklaringsrichtingen betekenis hebben (Korsten, 1983; Van Oijen, Snellen & Van Westerlaak, 1984), maar Caplan (1979) heeft nadrukkelijk gewezen op de laatstgenoemde verklaring van ‘gescheiden werelden’ vol onbegrip.

      Dat we de drie verklaringsrichtingen in het oog moeten houden, blijkt ook uit ander onderzoek. Onderzoek van Dal Santo et al. (2002) naar verspreiding en gebruik van onderzoekingen bij regionale overheidsdiensten in de Verenigde Staten wijst uit dat de belangrijkste factoren die het gebruik van onderzoek beïnvloeden, zijn: kenmerken van de onderzoeker, kenmerken van de ‘ontvangende’ organisatie en de daarin actieve medewerkers, en de communicatie. Specifieke projectomstandigheden spelen ook een rol.

      Belangrijk is te onderkennen dat niet slechts de betekenis van drie clusters verklaringen voor ondergebruik of onderbenutting van (toegepast) sociaalwetenschappelijk onderzoek als zodanig aan de orde is, maar juist de ‘use of performance information’. Ook hier drie clusters ter verklaring van ondergebruik van bevindingen uit prestatiemetingen? Op dit vlak is onderzoek verricht (Van Dooren & Van de Walle, 2008; Van Dooren et al., 2010; Taylor, 2011; Moynihan et al., 2012). Dat onderzoek leert dat de aanwezigheid van transformationele leiders de benutting van uitkomsten van onderzoek positief beïnvloedt. Waarom? Omdat transformationele leiders op beleidsverandering in de vorm van verbetering gericht zijn en daarom medewerkers kunnen en zullen aansporen om kennis te nemen van uitkomsten van prestatiemetingen. Dat gedrag kan versterkt worden door verbeterdoelen te stellen (‘goal clarity’) en bij te dragen aan een organisatiecultuur waarin meting en kwaliteitsverbetering van belang geacht worden (Moynihan et al., 2012).

      Australisch onderzoek (Taylor, 2011) maakt duidelijk dat ‘the use of performance information’ niet alleen afhangt van een op prestatieverbetering gerichte leiderschapsstijl, maar ook positief beïnvloed wordt door het scheppen van een structuur met organisatieroutines gericht op meting en verbetering (waarin data over prestaties ook beschikbaar zijn; wie wil verbeteren moet over gegevens kunnen beschikken), en het creëren van een cultuur van benutting (medewerkers moeten ontvankelijk zijn voor prestatiemeting en uitkomsten).

      Deze factoren (leiderschapsstijl, doelgerichtheid, structuur en cultuur) horen thuis in het eerder als ‘policy constraints’ aangeduide cluster van verklaringen voor ondergebruik. Bleek er ook iets te achterhalen over de opstelling van politieke bestuurders? Taylor signaleert ‘a reported lack of interest amongst Australian politicians on performance measurement’ (Taylor, 2011: 1329). Deze bevinding slaat echter vooral op benchmarking, een aanpak van prestatiemeting.

    • Sectoraal en internationaal onderzoek

      Naar benutting van benchmarkingonderzoek is onderzoek gedaan. Soms heeft dat onderzoek betrekking op benutting van een bepaald type onderzoek. Dorsch en Yasin (1998) bieden een raamwerk en Nelissen en De Goede (1999) treden in hun voetsporen. Van Helden en Brouwer (2005) richtten zich op de bedrijfsvergelijking van zuiveringsbeheer (bvz), een benchmarking. De relatie tussen benchmarking van bvz en prestatieverbetering bleek in hun onderzoek niet overtuigend aanwezig. Tillema (2006) blijft optimistisch. Ze onderzocht de bvz bij vier waterschappen en komt tot de vaststelling dat benchmarkinformatie zeker een rol kan spelen bij het realiseren van prestatieverbeteringen, maar dan moeten wel enkele hindernissen worden overwonnen.

    • Conclusie

      We weten inmiddels veel over benutting van beleidsonderzoek. Zo is er begripsmatige helderheid gebracht. We zetten op een rij hoe normatief aangekeken kan worden tegen benutting. Aangegeven is voorts dat er vier wegen waren en zijn om de mate van benutting van onderzoeksresultaten onderzoeksmatig in beeld te krijgen. We gaven verder drie richtingen aan om onderbenutting te verklaren. Dit overzicht gaf verder tal van aanwijzingen voor de manier waarop ‘practioners’ een goede benutting van onderzoek kunnen bevorderen. Zo staat onder meer vast dat als een probleemstelling niet aansluit op wat werkelijk leeft rond een beleid, daarmee de kans op een latere benutting van dit onderzoek bemoeilijkt wordt.

      Noot: Deze tekst bouwt voort op Korsten, A., Wat is goed genoeg?, Kobra, Amsterdam, 1983. De tekst is een bewerking van en aanvulling op: Korsten, Arno, Anne Douwe van der Meer & Jean Schutgens, Benutting van onderzoeksbevindingen nader bezien – Een voorstudie naar benuttingsmogelijkheden van visitatierapporten, Heerlen, 11 september 2012.

    • Literatuur
    • Abma, K. & A.F.A. Korsten, Burgers beoordelen hun gemeente. Waar zijn gemeenten volgens hun burgers goed in en waarin minder goed?, in: Tijdschrift voor Public Controlling, april 2009b, pp. 35-39.

    • Abma, K. & A.F.A. Korsten, Gemeenten in rapportcijfers, Eburon, Delft, 2009a.

    • Abma, K. & A.F.A. Korsten, Normenkaders bij bestuurskrachtmetingen – Een beeld van de ideale gemeente?, in: Bestuurswetenschappen, jrg. 62, 2008, nr. 6, pp. 42-67.

    • Abma, K., Beoordelen van gemeenten, Wolf Legal Publishers, Nijmegen, 2012.

    • Argyris, C., Leren in en door organisaties, Scriptum, Schiedam, 1996.

    • Argyris, C. & D. Schön, Organizational Learning: A Theory of Action Perspective, Addison-Wesley, Reading, 1978.

    • Askim, J., Determinants of Performance Information Utilization in Political Decision Making, in: W. van Dooren & S. van de Walle (eds.), Performance Information in the Public Sector- How it is used, Palgrave MacMillan, Londen, 2008, pp. 125-140.

    • Askim, L., A. Johnson & K.A. Christophersen, Factors behind organizational learning from benchmarking: Experiences from Norwegian municipal benchmarking networks, in: Journal of Public Administration Research and Theory, vol. 18, 2008, nr. 2, pp. 297-320.

    • Askim, L., Local Government by Numbers – Who Makes Use of Performance Information, When and For What Purposes?, University of Oslo, Oslo, 2007.

    • Behn, R.D., Rethinking democratic accountability, Brookings, Washington, 2001.

    • Behn, R.D., Why measure performance? – Different Purposes Require Different Measures, in: Public Administration Review, vol., 63, 2003, nr. 5, pp. 586-606.

    • Bekkers, V.J.J.M. et al., Doorwerking van strategische beleidsadvisering, Erasmus Universiteit Rotterdam, 2004.

    • Bekkers, V.J.J.M., Beleid in beweging, Uitgeverij Lemma, Den Haag, 2007.

    • Bekkers, V.J.J.M., M. Fenger & V. Homburg, Doorwerkingspatronen van strategische advisering, in: Bestuurswetenschappen, jrg. 59, 2005, nr. 5, pp. 431-450.

    • Bekkers, V.J.J.M., Nieuwe vormen van sturing en informatisering, Eburon, Delft, 1994.

    • Boekenoogen, M., P. van Hoesel et al. (red.), Methoden van beleidsonderzoekers: creatief en oplossingsgericht, Uitgeverij Lemma, Den Haag, 2009.

    • Bogt, H.J, ter, P. Jansen & S. Tillema (red.), Met het oog op de publieke zaak, Rijksuniversiteit Groningen, 2010.

    • Bogt, H.J. ter, Bronnen van controlinformatie voor politieke bestuurders, in: Maandblad voor Accountancy en Bedrijfseconomie, jrg. 75, 2001a, nr. 12, pp. 525-538.

    • Bogt, H.J. ter, De doelmatigheid van outputgerichte managementinformatie, in: Beleidswetenschap, jrg. 16, 2002, nr. 2, pp. 114-144.

    • Bogt, H.J. ter & J.G. van Helden, Gebruik van outputinformatie bij gemeentelijke overheden, in: Bestuurskunde, 1994, nr. 1, pp. 2-13.

    • Bogt, H.J. ter, Gebruik van outputinformatie door gemeentebestuurders, in: Overheidsmanagement, 2000, nr. 7/8, pp. 183-187.

    • Bogt, H.J. ter, Neo-institutionele economie, management control en verzelfstandiging, Labyrint, Cappelle aan den IJssel, 1997.

    • Bogt, H.J. ter, Performance evaluation styles in governmental organizations: how do professional managers facilitate politicians’ work?, in: Management Accounting Research, vol. 14, 2003, nr. 4, pp. 311-332.

    • Bogt, H.J. ter, Politicians and output-oriented performance evaluation in municipalities, in: The European Accounting Review, vol. 10, 2001b, pp. 621-643.

    • Bogt, H.J. ter, Politieke bestuurders, productbegrotingen en prestatiebeoordelingen bij gemeenten, in: Maandblad voor Accountancy en Bedrijfseconomie, jrg. 73, 1999, nr. 12, pp. 671-683.

    • Bogt, H.J., ter, Managementvernieuwing bij de overheid – Mooie woorden of echte daden?, Groningen, 2005 (oratie).

    • Bogt, H.J., ter, Prestatiegegevens: nuttig voor sturing van gemeentelijke taken, in: Public Controlling, juni 2004, pp. 52-58.

    • Boomkens, R., Topkitsch en slow science – Kritiek van de academische rede, Uitgeverij Van Gennep, Amsterdam, 2008.

    • Borst, R., C. Lako & M.S. de Vries, Is prestatiemanagement in de publieke sector toepasbaar? – Een vergelijkend onderzoek naar de opvattingen onder ambtenaren, in: Bestuurswetenschappen, jrg. 66, 2012, nr. 4, pp. 14-33.

    • Bouckaert, G. & J. Halligan, Managing performance. International comparisons, Routledge, London, 2008.

    • Bouckaert, G. & J. Halligan, Performance and performance management, in: B. Guy Peters & J. Pierre (eds.), Handbook of Public Policy, Sage, London, 2006, pp. 443-460.

    • Bouckaert, G. & W. van Dooren, Performance Measurement and Management in Public Sector Organizations, in: T. Boivard & E. Löffler (eds.), Public Management and governance, Routledge, London, 2004, pp. 127-137.

    • Bouckaert, G., B. De Peuter & W. van Dooren, Meten en vergelijken van lokale bestuurlijke ontwikkeling: een monitoringsysteem voor het lokaal bestuur in Vlaanderen, Die Keure, Brugge, 2003.

    • Bouckaert, G., Prestaties en prestatiemanagement in de publieke sector, in: Tijdschrift voor Economie en Management, 2006, nr. 3, pp. 237-265.

    • Bouckaert, G., Renewing Public Sector Performance Management, in: W. Jann, M. Röber & H. Wollmann (Hrsg.), Public Management: Grundlagen, Wirkungen, Kritik, Sigma, Berlijn, 2006, pp. 119-133.

    • Bovens, M. & Th. Schillemans (red.), Handboek publieke verantwoording, Uitgeverij Lemma, Den Haag, 2009.

    • Bressers, J.Th.A., P. de Jong, P.J. Klok & A.F.A. Korsten (red.), Beleidsinstrumenten bestuurskundig beschouwd, Van Gorcum, Assen, 1993.

    • Bruijn, H. de & G.J. van Helden, A Pea for Dialogue Driven Performance-based Management Systems: Balance from the Dutch Public Sector, in: Financial Accountability & Management, vol. 22, 2006, nr. 4, pp. 405-423.

    • Bruijn, H. de, Framing– Over de macht van taal in de politiek, Atlas, Amsterdam, 2011.

    • Bruijn, H. de, Managers & professionals, Academic Service/Sdu, Den Haag, 2008.

    • Bruijn, H. de, Managing Performance in the Public Sector, Routledge, London, 2007.

    • Bruijn, H. de, Prestatiemeting in de publieke sector, Uitgeverij Lemma, Utrecht, 2001.

    • Caplan, N., The Two-Communities Theory and Knowledge Utilization, in: American Behavorial Scientist, vol. 22, 1979, nr. 3.

    • Carter, R., Maximizing the Use of Evaluation Results, in: J.S. Wholey, H.P. Hatry & K.E. Newcomer (eds.), Handbook of Program Evaluation, Jossey-Bass, San Francisco, 1994, pp. 576-590.

    • Casey, D., Managing Learning in Organizations, Open University Press, Buckingham, 1993.

    • Charbonneau, E. & F. Bellavance, Blame Avoidance in Public Reporting: Evidence from a Provincially Mandated Municipal Performance Measurement Regime, in: Public Performance & Management Review, vol. 35, 2012, nr. 3, pp. 399-422.

    • Commissie Toekomst Lokaal Bestuur (Cie-Bovens), Wil tot Verschil – Gemeenten in 2015, Vereniging van Nederlandse Gemeenten, Den Haag, 2006.

    • Dal Santo, T., S. Goldberg, P. Choice & M.J. Austin, Exploratory Research in Public Social Service Agencies – An Assessment of Dissemination and Utilization, in: Journal of Sociology and Social Welfare, vol. 29, 2002, nr. 4, pp. 59-81.

    • Derksen, W., A.F.A. Korsten & A.F.M. Bertrand (red.), De praktijk van onderzoek, Wolters-Noordhoff, Groningen, 1988.

    • Derksen, W., Kennis en beleid verbinden, Boom Lemma uitgevers, Den Haag, 2011.

    • Dooren, W. van & S. van de Walle (eds.), Performance Information in the Public Sector– How it is used, Palgrave MacMillan, London, 2008.

    • Dooren, W. van, G. Bouckaert & J. Halligan, Performance Management in the Public Sector, Routledge, London, 2010.

    • Dooren, W. van, Performance Measurement in the Flemish Public Sector, Instituut voor de Overheid, Leuven, 2006.

    • Dorsch, J.J. & M.M. Yasin, A Framework for Benchmarking in the Public Sector, in: International Journal of Public Sector Management, vol. 11, 1998, nr. 2/3, pp. 91-115.

    • Dubnick, M., Accountability and the Promise of Performance – In Search of the Mechanisms, in: Public Performance and Management Review, vol. 28, 2005, nr. 3, pp. 376-417.

    • Dunn, W., Public Policy Analysis: An Introduction, Pearson Education/Prentice Hall, Upper Saddle River, 2008.

    • Ellemers, J.E., Veel kunnen verklaren of iets kunnen veranderen: krachtige versus manipuleerbare variabelen, in: Beleid en Maatschappij, nov. 1976, pp. 281-291.

    • Engbersen, G., Fatale remedies – Over onbedoelde gevolgen van beleid en kennis, Pallas Publications, Amsterdam University Press, Amsterdam, 2009.

    • Francis, G. & J. Holloway, What have we learned? Themes from the literature on best-practice benchmarking, in: International Journal of Management Reviews, vol. 9, 2007, nr. 3, pp. 171-189.

    • Friedrich, H., Staatliche Verwaltung und Wissenschaft, Europäische Verlagsanstalt, Frankfurt am Main, 1970.

    • Gardner, H., M. Csikszentmihalyi & W. Damon, Het GoodWork Project®: enkele resultaten van vijftien jaar onderzoek, in: Th. Jansen, G. van den Brink & J. Kole (red.), Beroepstrots– Een ongekende kracht, Boom, Amsterdam, 2009, pp. 48-77.

    • Greve, H., Organizational learning from performance feedback: A behavorial perspective on innovation and change, Cambridge University Press, Cambridge, 2003.

    • Habermas, J., Theorie des kommunikativen Handels, Surhkamp, Frankfurt, 1987.

    • Hakvoort, J. & H. Klaassen, Benchmarking: resultaten vergelijken, in: P. van der Knaap & A. Schilder (red.), Resultaatgericht sturen en evalueren, Sdu, Den Haag, 2004, pp. 205-215.

    • Halachmi, A., Performance Measurement, Accountability, and Improved Performance, in: Public Performance and Management Review, vol. 25, 2002b, nr. 4, pp. 370-374.

    • Halachmi, A., Who Gets What, When and How: Performance Measures for Accountability?; for Improved Performance?, in: International Review of Public Administration, vol. 7, 2002a, nr. 1, pp. 85-95.

    • Hanney, S.R., M.A. Gonzalez-Blok, M.J. Buxton & M. Kogan, The utilization of health research in policy-making: concepts, examples and methods of assessment, in: Health Research and Policy Systems, vol. 1, 2003, nr. 3, pp. 1-28.

    • Hart, P. ’t, J. Hufen & M.J. van Duin, De lerende overhead: mogelijkheden en grenzen van een modieuze metafoor, in: Beleid en Maatschappij, jrg. 15, 1988, nr. 2, pp. 83-103.

    • Haselbekke, A.G.J., H.L. Klaassen, A.P. Ros & R.J. in ’t Veld, Prestaties tellen – Kengetallen als instrument voor een bedrijfsmatig(er) bestuur en beheer van decentrale overheden, VNG Uitgeverij, Den Haag, 1990.

    • Hatry, H., Epilogue: The Many Faces of Use, in: W. van Dooren & S. van de Walle (eds.), Performance Information in the Public Sector– How it is used, Palgrave MacMillan, London, 2008, pp. 227-241.

    • Hatry, H., Performance Measurement Principles and Techniques: An Overview for Local Government, in: R. Kearny & E.V. Berman (eds.), Public Sector Performance – Management, Motivation and Measurement, ASPA, Westview Press, Boulder, 1999, pp. 304-329,

    • Haverland, M. & D. Yanow, Hoe overleef ik discussies over bestuurskundig onderzoek?, in: Bestuurskunde, jrg. 19, 2010, nr. 4, pp. 87-95.

    • Heiber, H., Messung von Forschungsleistungen der Hochschulen, Nomos Verlagsgesellschaft, Baden-Baden, 1983.

    • Helden, G. van, BBI in de praktijk, Groningen, 1999.

    • Helden, G.J. van & A. Johnson, A comparative analysis in the development of performance-based management systems in Dutch and Norwegian local government, in: International Public Management Journal, vol. 5, 2002, nr. 1, pp. 75-95.

    • Helden, G.J. van & H.J. ter Bogt, The Application of Businesslike Planning & Control in Local Government: A Field Study of Eight Dutch Municipalities, in: Local Government Studies, vol. 27, 2001, nr. 1, pp. 61 -86.

    • Helden, G.J. van & S. Tillema, In Search of a Benchmarking Theory for the Public Sector, in: Financial Accountability & Management, vol. 21, 2005, nr. 3, pp. 237-261.

    • Helden, G.J. van & E. Jansen, New public management bij gemeenten, in: Overheidsmanagement, jrg. 15, 2002, nr. 3, pp. 64-68.

    • Helden, G.J. van & N. Brouwer, Benchmarking en prestatieverbetering in de publieke sector: ervaringen met de bedrijfsvergelijking zuiveringsbeheer, in: MAB, jrg. 79, 2005, nr. 11, pp. 574-583.

    • Helden, G.J. van & S. Tillema, Naar een benchmarkingtheorie voor de publieke sector, in: Tijdschrift voor Openbare Financiën, jrg. 36, 2004, nr. 3, pp. 99-113.

    • Helden, G.J. van, Normering prestatie-indicatoren, begin- of eindpunt van doelmatigheid, in: B& G, september 1997, pp. 8-12.

    • Helden, G.J. van, S. Tillema, M. Kuppens & J.W.C. Dekking, Werkt benchmarking bij waterschappen?, in: Bestuurskunde, jrg. 14, maart 2005, nr. 2, pp. 30-39.

    • Helderman, J.K. & M.E. Honingh, Systeemtoezicht– Een onderzoek naar de condities en werking van systeemtoezicht in zes sectoren, Boom Juridische uitgevers, Den Haag, 2009.

    • Henry, G. & M. Mark, Beyond use: Understanding Evaluation’s Influence on Attitudes and actions, in: American Journal of Evaluation, vol. 24, 2003, nr. 3.

    • Hill, M., The Public Policy Process, Pearson, Harlow, 2009 (5e editie).

    • Hoesel, P.H.M., F.L. Leeuw & J.W.M. Mevissen (red.), Beleidsonderzoek in Nederland, Van Gorcum, Assen, 2005.

    • Hoesel, P.H.M. van, Beleidsonderzoek als professie Een langgekoesterd ideaal, Stichting Economisch Instituut voor het Midden- en Kleinbedrijf, Zoetermeer, 2003 (oratie).

    • Hogwood, B.W. & B.G. Peters, Policy Dynamics, Wheatsheaf Books, Brighton, 1983.

    • Hood, C., Public Service Management by Numbers: Why Does it Vary? Where has it Come From? What are the Gaps and the Puzzles?, in: Public Money and Management, vol. 27, 2007a, nr. 2, pp. 95-102.

    • Hood, C., R. Dixon & C. Beeston, Rating the Rankings: Assessing International Rankings of Public Service Performance, in: International Public Management Journal, vol. 11, 2008, nr. 3, pp. 298-328.

    • Hood, C., The Blame Game: Spin, Bureaucracy, and Self-Preservation in Government, Princeton University Press, Princeton, 2011.

    • Hood, C., What Happens when Transparancy meets Blame-Avoidance?, in: Public Management Review, vol. 9, 2007b, nr. 2, pp. 191-210.

    • Hoppe, R. et al., Beleidsnota’s die (door)werken, Coutinho, Bussum, 1998.

    • Hoppe, R. & A. Peterse (red.), Bouwstenen voor argumentatieve beleidsanalyse, Elsevier, Den Haag, 1998.

    • Hoppe, R. & S. Huijs, Werk op de grens tussen wetenschap en beleid: paradoxen en dilemma’s, RMNO, Den Haag, 2003.

    • Hoppe, R. & W. Halffman, Wetenschappelijke beleidsadvisering in Nederland. Trends en ontwikkelingen, in: Beleidswetenschap, jrg. 18, 2004, nr. 1, pp. 31-61.

    • Hoppe, R., ‘Annorexia consulta’: afslanking infrastructuur rijksdienst, deel 2, in: Beleid en Maatschappij, jrg. 34, 2007, nr. 4, pp. 238-250.

    • Hoppe, R., From ‘knowledge use’ to ‘boundary work’; sketch of an emerging new agenda for inquiry intro science-policy interaction, in: R.J. in ’t Veld, (ed.), Knowledge Democracy: Consequences for Science, Politics and Media, Heidelberg, 2010, pp. 169-186.

    • Hoppe, R., Na ‘doorwerking’ naar ‘grenzenwerk’, in: Bestuurskunde, jrg. 17, 2008, nr. 2, pp. 15-26.

    • Hoppe, R., The Governance of Problems – Puzzling, Powering, Participation, Policy Press, Bristol, 2011.

    • Hoppe, R., Van flipperkast naar grensverkeer– Veranderende visies op de relatie tussen wetenschap en beleid, AWT, Den Haag, 2002.

    • Hoppe, R., Waarom uitvechten uitdenken overtroeft, in: Bestuurskunde, jrg. 21, 2012, nr. 2, pp. 7-18.

    • Hoppe, R., Werken op de grens tussen wetenschap en politiek: naar een typologie van grensarrangementen, in: Beleidswetenschap, jrg. 17, 2003, nr. 2, pp. 144-170.

    • Huitema, D., M. Jeliazkova & D.F.Westerheijden, Fasen, niveaus en cirkels bij beleidsontwikkeling– Hogeronderwijsbeleid en kwaliteitsinterne milieuzorg, in: Beleidswetenschap, jrg. 17, 2003, nr. 1, 29-51.

    • Hulshof, M., J. Goossens & J. Meulesteen, Een archimedisch punt … De kwaliteit van visitatierapporten, in: M. Hulshof, B. Bulder et al. (red.), Toezichthouder: lam of leeuw?, Inspectie van het Onderwijs, Den Haag, 2003, pp. 21-37.

    • Hupe, P.L. & F.B. van der Meer, Cruciale koppelingen. Over doorwerking van emancipatie-effectrapportages in overheidsprocessen, in: Beleidswetenschap, jrg. 20, 2006, nr. 2, pp. 3-21.

    • Hupe, P.L., De mythe van de beleidsrelevantie, in: Beleid en Maatschappij, oktober 1984, pp. 278-294.

    • Hupe, P.L., Overheidsbeleid als politiek,Van Gorcum, Assen, 2007.

    • Jeliazkova, M.I., Running the maze: interpreting external review recommendations, in: Quality of Higher Education, vol. 8, 2002, nr. 1, pp. 89-96.

    • Jeliazkova, M. & D. Westerheijden, The Netherlands: A Leader in Quality Assurance Follows the Accreditation Trend, in: S. Schwarz & D. Westerheijden (eds.), Accreditation and Evaluation in the European Higher Education Area, Kluwer Academic, Dordrecht, 2004, pp. 323-346.

    • Jeliazkova, M. & D.F. Westerheijden (red.), Het zichtbare eindresultaat. Doorwerking van onderwijsvisitaties in hogeronderwijsinstellingen, Algemene Rekenkamer, Den Haag, 17 februari 2000.

    • Jeliazkova, M. & D.F. Westerheijden, Systemic adaptation to a changing environment– Towards a next generation of quality assurance models, in: Higher Education, vol. 44, 2002, nr. 3-4, pp. 433-448.

    • Johnson, K., L.O. Greenseid, S.A. Toial, J.A. King, F. Lawrenz & B. Volkov, Research on Evaluation Use – A Review of the Empirical Literature from 1986 to 2005, in: American Journal of Evaluation, 2009, pp. 307-410.

    • Kearny, R. & E.V. Berman (eds.), Public Sector Performance – Management, Motivation and Measurement, ASPA, Westview Press, Boulder, 1999.

    • Kerseboom, J., F. Leeuw & R. Elte, Een mozaïek van toezicht, inspectie, handhaving en evaluatie in tien thema’s, in: F.L. Leeuw, J.S. Kerseboom & R. Elte (red.), Turven, tellen, toetsen, Boom Juridische uitgevers, Den Haag, 2007, pp. 9-29.

    • Kerseboom, J., Leren van evalueren, in: Bestuurskunde, jrg. 17, 2008, nr. 2, pp. 41-47.

    • Kingdon, J.W., Agendas, Alternatives and Public Policies, Longman, New York, 2003.

    • Kirkhart, K., Reconceptualizing evaluation use: an integrated theory of influence, in: New Directions for Evaluation, Jossey-Bass, San Francisco, 2000, pp. 5-23.

    • Knaap, P. van der, ‘Lerende’ overheid, intelligent beleid, Phaedrus, Den Haag, 1997.

    • Knaap. P. van der, A. Korsten, K. Termeer & M. van Twist (red.), Trajectmanagement, Uitgeverij Lemma, Utrecht, 2004.

    • Köbben, A.J.F. & H. Tromp, De onwelkome boodschap– Of hoe de vrijheid van wetenschap bedreigd wordt, Uitgeverij Jan Mets, Amsterdam, 1999.

    • Köbben, A.J.F., Het gevecht met de engel – Over verheffende en minder verheffende aspecten van het wetenschapsbedrijf, Mets en Schilt, Amsterdam, 2003.

    • Kool, D. de, Monitoring in beeld, Erasmus Universiteit Rotterdam, Rotterdam, 2007a.

    • Kool, D. de, Monitoring in de publieke sector: De rapportage Water in beeld, in: Bestuurswetenschappen, jrg. 16, 2011, nr. 1, pp. 21-39.

    • Kool, D. de, Monitoring in het openbaar bestuur, in: Overheidsmanagement, nr. 10, 2007b, pp. 6-10. Kool, D. de, Monitoring in beeld, in: Bestuurskunde, jrg. 16, 2007c, nr. 2, pp. 92-103.

    • Kool, D. de, Rational, Political and Cultural Uses of Performance Monitors: the Case of Dutch Urban policy, in: W. van Dooren & S. van de Walle (eds.), Performance Information in the Public Sector– How it is used, Palgrave MacMillan, London, 2008, pp. 174-192.

    • Korsten, A.F.A. & R. Hoppe, Van beleidswetenschap naar kennissamenleving, in: Beleidswetenschap, jrg. 20, 2006, nr. 4, pp. 34-73.

    • Korsten, A.F.A., Bestuurskunde als avontuur, Kluwer, Deventer, 1988.

    • Korsten, A.F.A., Deugdelijk bestuur, Open Universiteit Nederland, Heerlen, 2010 (afscheidsrede).

    • Korsten, A.F.A., Maatstaven voor de beoordeling van overheidshandelen, Open Universiteit, Heerlen, 14 maart 2005 (www.arnokorsten.nl)

    • Korsten, A.F.A., Wat is goed genoeg?, Kobra, Amsterdam, 1983.

    • Kuhlmann, S., J. Bögumil & H. Wollmann (Hrsg.), Leistungsmessung und - vergleich in Politik und Verwaltung, VS Verlag, Wiesbaden, 2004.

    • Mark, M.M. & H.T. Henry, The Mechanisms and Outcomes of Evaluation Influence, in: Evaluation, vol. 10, 2004, nr. 1, pp. 35-57.

    • Laegreid, P., P.G. Roness & K. Rubecksen, Performance Information and Performance Steering: Integrated System or Loose Coupling?, in: W. van Dooren & S. van de Walle (eds.), Performance Information in the Public Sector– How it is used, Palgrave MacMillan, London, 2008, pp. 42-58.

    • Lancer Julnes, P. de, Performance Measurement Beyond Instrumental Use, in: W. van Dooren & S. van de Walle (eds.), Performance Information in the Public Sector– How it is used, Palgrave MacMillan, London, 2008, pp. 58-72.

    • Lancer Julnes, P. de & M. Holzer, Promoting the Utilization of Performance Measures in Public Organizations: an Empirical Study of Factor Affecting Adoption and Implementation, in: Public Administration Review, vol. 61, 2001, nr. 6, pp. 693-705.

    • Landry, R., M. Lamary & N. Amara, The Extent and Determinants of the Utilization of University Research in Government Agencies, in: Public Administration Review, vol. 63, 2003, nr. 2, pp. 192-205.

    • Leeuw, F.L. & H. van de Graaf, Onderzoek naar beleidstheorieën: uitgangspunten, methodische aspecten en praktische relevantie, in: Beleid en Maatschappij, jrg. 15, 1988, nr. 1, pp. 1-7.

    • Leeuw, F.L., Diminishing returns in evaluation? Challenges for educational evaluators, in: Lifelong Learning in Europe, vol. 9, 2004, nr. 2, pp. 106-114.

    • Leeuw, F.L., J.S. Kerseboom & R. Elte (red.), Turven, tellen, toetsen, Boom Juridische uitgevers, Den Haag, 2007.

    • Leeuw, F.L., R. Rist & R.C. Sonnichsen (eds.), Can Governments Learn?, Transaction books, Lexington, 1994.

    • Leeuw, F.L., Reconstructing Program Theories: Methods Available and Problems to be Solved, in: American Journal of Evaluation, vol. 24, 2003a, nr.1, pp. 5-20.

    • Leeuw, F.L., Toezicht in het hoger onderwijs– Denkkaders voor een woelige tijd, in: THEMA – Tijdschrift voor Hoger Onderwijs en Management, 2003b, nr. 3, pp. 18-23.

    • Leeuw, F.L., Visitatie, inspectie en accreditering in het hoger onderwijs, in: THEMA– Tijdschrift voor Hoger Onderwijs en Management, 2001, nr. 5, pp. 44-49.

    • Mark, M. & G. Henry, The Mechanisms and Outcomes of Evaluation Influence, in: Evaluation, vol. 10, 2004, nr. 1, pp. 33-57.

    • Meer, F.B. van der, G.J. de Vries & G.A.N. Vissers, Evaluatie en leerprocessen bij de overheid: de rol van institutionele condities, in: Beleidswetenschap, jrg. 14, 2000, nr. 3, pp. 253-277.

    • Melkers, J.E. & K.G. Willoughby, Models of Performance Measurement Use in Local Governments: Understanding Budgeting, Communication and Lasting Effects, in: Public Administration Review, vol. 65, 2005, pp. 180-190.

    • Mertens, F., Inspecteren – Toezicht door inspecties, Sdu Uitgevers, Den Haag, 2011.

    • Mertens, F.J.H., Kwaliteitsbewaking in het Nederlands hoger onderwijs: enkele persistente problemen van het Nederlands hoger onderwijs, in: Tijdschrift voor Hoger Onderwijs, jrg. 17, april 1999, nr. 1.

    • Mertens, F.J.H., Vertrouwen en controle in het hoger onderwijs, in: H. Gansewinkel, L. Römkens & W. Spee (red.), Complexiteit. Hoera! Kansen enkrachten in het hedendaagse onderwijs, Interstudie NDO, Arnhem, 2008, pp. 103-110.

    • Meurs, P.L., E.K. Schrijvers & G.H. de Vries, Leren van de praktijk – Gebruik van lokale kennis en ervaring voor beleid, Amsterdam University Press, Amsterdam, 2006.

    • Montfort, C. van, Verantwoording aan departementen, in: M. Bovens & Th. Schillemans (red.), Handboek publieke verantwoording, Uitgeverij Lemma, Den Haag, 2009, pp. 81-101.

    • Moynihan, D.P., The Dynamics of Performance Management, Georgetown University Press, Washington D.C., 2008.

    • Moynihan, D.P., S.K. Pandey & B.E. Wright, Setting the Tabler: How Transformational Leadership Fosters Performance Information Use, in: Public Administration, vol. 22, jan. 2012, nr. 1, pp. 143-165.

    • Mulder, H.P., G. Walraven et al., Het gebruik van beleidsevaluatie-onderzoek bij de rijksoverheid, in: Beleidswetenschap, jrg. 5, 1991, nr. 3, pp. 203-277.

    • Nelissen, N.J.M. & P.J.M. de Goede, Benchmarking: vergelijken en verbeteren, in: Bestuurskunde, jrg. 8, 1999, nr. 2, pp. 54-70.

    • Newman, D.L., R.D. Brown & L.A. Braskamp, Communication Theory and the Utilization of Evaluation, in: L. Braskamp & R.D. Brown (eds.), Utilization of Evaluative Information, Jossey-Bass, San Francisco, 1980, pp. 29-37.

    • Noordegraaf, M. & J. Sterrenburg, Administratieve lasten voor publieke professionals: ficties en feiten, in: Th. Jansen, G. van den Brink & J. Kole (red.), Beroepstrots– Een ongekende kracht, Boom, Amsterdam, 2009, pp. 115-129.

    • Noordegraaf, M. & J. Sterrenburg, Publieke professionals en verantwoordingsdruk, in: M. Bovens & Th. Schillemans (red.), Handboek publieke verantwoording, Uitgeverij Lemma, Den Haag, 2009, pp. 231-255.

    • Noordegraaf, M., Prestatiemanagement, in: M. Noordegraaf, K. Geuijen & A. Meijer (red.), Handboek Publiek Management, Boom Lemma uitgevers, Den Haag, 2011, pp. 365-397.

    • Noordegraaf, M. & W.J.M. Kickert, Sturen op afstand in het hoger onderwijs, in: W.J.M. Kickert (red.), Veranderingen in management en organisatie bij de rijksoverheid, Samsom, Alphen aan den Rijn, 1993, pp. 77-90.

    • Noordegraaf, M., Management in het publieke domein, Uitgeverij Coutinho, Bussum, 2004.

    • Noordegraaf, M., Professioneel bestuur, Uitgeverij Lemma, Utrecht, 2008.

    • Oijen, P. van, I.Th.M. Snellen & J.M. van Westerlaak, Ambtenaren en onderzoekers, Leiden, 1984.

    • Patton, M.Q., Utilization-focused Evaluation, Sage, Thousand Oaks, 1997.

    • Plaat, A., G. van Os & M. Noordegraaf (red.), Rijk met wetenschap, Boom Lemma uitgevers, Den Haag, 2012.

    • Pollitt, C., X. Girre et al., Performance or Compliance? – Performance Audit and Public Management in Five Countries, Oxford University Press, Oxford, 1990.

    • Power, M., The Audit Society – Rituals of verification, Oxford University Press, Oxford, 1999.

    • Power, M., The Theory about the Audit Explosion, in: E. Ferlie, L.E. Lynn jr & C. Pollitt (eds.), The Oxford Handbook of Public Management, Oxford University Press, Oxford, 2005, pp. 326-346.

    • Pröpper, I.M.A.M., Het gebruik van beleidsevaluatie: terugkoppeling, in: A. Hoogerwerf (red.), Overheidsbeleid, Samsom, Alphen aan den Rijn, 1993, pp. 180-198.

    • Pröpper, I.M.A.M. & M.S. de Vries, Presentatie en gebruik van evaluatie-onderzoek, in: J.T.A. Bressers & A. Hoogerwerf (red.), Beleidsevaluatie, Samsom, Alphen aan den Rijn, 1995, pp. 158-177.

    • Raad voor het openbaar bestuur, Presteren door leren – Benchmarken in het binnenlands bestuur, Rob, Den Haag, 2002.

    • Rein, M. & D.A. Schön, Frame-reflective policy discourse, in: Beleidsanalyse, 1986, nr. 4, pp. 4-18.

    • Rein, M., Reframing Problematic Policies, in: M. Moran, M. Rein & R.E. Goodin (eds.), The Oxford Handbook of Public Policy, Oxford University Press, Oxford, 2006, pp. 389-409.

    • Reitsma, A.B., Kritische succesfactoren bij visitatie en kwaliteitsverbetering van P& A opleidingen, Open Universiteit, Heerlen, 2003 (diss.).

    • Rossi, P.H. & H.E. Freeman, Evaluation – A systematic approach, Sage, Newbury Park, 1989.

    • Scheele, J.P., P.A.M. Maassen & D.F. Westerheijden (eds.), To be Continued … Follow-Up of Quality Assurance in Higher Education, Elsevier/De Tijdstroom, Maarssen, 1998.

    • Schillemans, Th. & M. Bovens, Publieke verantwoording 2.0: sober maar scherp, in: M. Bovens & Th. Schillemans (red.), Handboek publieke verantwoording, Uitgeverij Lemma, Den Haag, 2009, pp. 275-295.

    • Schillemans, Th., Verantwoording in de schaduw van de macht – Horizontale verantwoording bij zelfstandige uitvoeringsorganisaties, Uitgeverij Lemma, Den Haag, 2007.

    • Schillemans, Th., Visitaties als vorm van verantwoording, in: M. Bovens & Th. Schillemans (red.), Handboek publieke verantwoording, Uitgeverij Lemma, Den Haag, 2009, pp. 161-181.

    • Schön, D.A. & M. Rein, Frame Reflection, Basic Books, New York, 1994.

    • Schwarz, S. & D.F. Westerheijden (eds.), Accreditation and Evaluation in the European Higher Education Area, Kluwer Academic Publishers, Dordrecht, 2004.

    • Shulba, L.M. & J.B. Cousins, Evaluation use: theory, research and practice since 1986, in: Evaluation Practice, vol. 18, 1997, nr. 3, pp. 195-208.

    • Smith, H. et al., Benchmarking and Threshold Standards in Higher Education, Kogan Page, London, 2000.

    • Smith, P., On the unintended consequences of publishing performance data in the public sector, in: International Journal of Public Administration, 1995, nr. 18, pp. 377 e.v.

    • Swanborn, P.G., Evalueren, Boom, Amsterdam, 1999.

    • Swieringa, J. & A.F.M. Wierdsma, Op weg naar een lerende organisatie, Wolters Noordhoff, Groningen, 1990.

    • Taylor, J., Factors Influencing the Use of Performance Information for Decision Making in Australian State Agencies, in: Public Administration, vol. 89, 2011, nr. 4, pp. 1316-1335.

    • Thiel, S. van & F.L. Leeuw, De prestatieparadox in de publieke sector, in: Beleidswetenschap, jrg. 17, 2003, nr. 2, pp. 123-144.

    • Tijssen, I., Kwaliteit noodt tot meer gebruik– Bruikbaarheid van sociaal-wetenschappelijke onderzoeksresultaten volgens arts-bestuurders, Quickprint, Nijmegen, 1988.

    • Tillema, S., Gebruik van benchmarkinformatie in de publieke sector, in: MAB, vol. 80, 2006, nr. 6, pp. 300-308.

    • Tillema, S. & G.J. van Helden, Van vergelijking naar verbetering? Onderzoek naar de actiebereidheid van waterschappen naar aanleiding van de bedrijfsvergelijking Zuiveringsbeheer 1999, Groningen, 2003.

    • Vall, M. van de, Sociaal beleidsonderzoek, Samsom, Alphen aan den Rijn, 1980.

    • Vall, M. van de & B. van Dijkum-de Jong, Het rendement van sociaal beleidsonderzoek – Een onderzoek naar de voorwaarden voor beleidsrelevantie, Samsom, Alphen aan den Rijn, 1979.

    • Veld, R.J. in ’t, Kennisdemocratie– Opkomend stormtij, Academic Service/Sdu, Den Haag, 2010.

    • Walle, S. van de & A. Roberts, Publishing Performance Information: An Illusion of control?, in: W. van Dooren & S. van de Walle (eds.), Performance Information in the Public Sector– How it is used, Palgrave MacMillan, London, 2008, pp. 211-227.

    • Webber, D.J., The Distribution and Use of Policy Knowledge in the Policy Process, in: Knowledge and Policy, vol. 4, 1991, nr. 4, pp. 6-35.

    • Weibel, A., K. Rost & M. Osterloh, Pay for performance in the public sector– Benefits and (hidden) costs, in: Journal of Public Administration Research and Theory, vol. 20, 2009, nr. 2, pp. 387-412.

    • Weiss, C.H. (ed.), Using Social Science Research in Public Policy-Making, Lexington Books, Lexington, 1977.

    • Weiss, C.H. (with M. Bucuvalas), Social Science Research and Decision-making, Columbia University Press, New York, 1980.

    • Weiss, C.H., E. Murphy-Graham & S. Birkeland, An Alternative Route to Policy Influence, in: American Journal of Evaluation, vol. 26, 2005, nr. 1, pp. 12-30.

    • Weiss, C.H., Evaluation Research in a Political Context, in: E. Struening & M. Guttentag (eds.), Handbook of Evaluation Research, Sage, Beverly Hills, 1976, pp. 13-27.

    • Weiss, C.H., Knowledge Creep and Decision Accretion, in: Knowledge: Creation, Diffusion, Utilization, 1980, pp. 381-404.

    • Weiss, C.H., Research for Policy’s Sake: the Enlightment Function of Social Science, in: Policy Analysis, vol. 3, 1977, nr. 4, pp. 531-545.

    • Weiss, C.H., The Many Meanings of Research Utilization, in: Public Administration Review, 1979, pp. 426-431.

    • Wildavsky, A., The Self-Evaluating Organization, in: R. Kearny & E.V. Berman (eds.), Public Sector Performance – Management, Motivation and Measurement, ASPA, Westview Press, Boulder, 1999, pp. 273-293.

    • Winter, H.B. & M. Herweijer, Evaluatie van beleid, in: Strategie en beleid in de publieke sector, Samsom, Alphen aan den Rijn, dec. 1995, F2120, pp. 1-26.

    • Yin, R.K. & M.K. Gwaltney, Knowledge Utilization as a Networking Process, in: Knowledge: Creation, Diffusion, Utilization, vol. 2, 1981, nr. 4, pp. 555-580.

Reageer

Tekst

Kies uw weergave Covers view Covers view