Accueil Encyclopédies de poche Ouvrage Chapitre

Les expérimentations aléatoires en économie

2013



Chapitre précédent Pages 111 - 121 Chapitre suivant
  • Abeberese A.B., Kumler  T.J. et Linden  L.L., « Improving reading skills by encouraging children to read : a randomized evaluation of  the Sa Aklat Sisikat reading program in the Philippines », Working Paper, 2011.
  • Abelhauser A., Gori  R. et Sauret  M.-J., La Folie évaluation. Les nouvelles fabriques de la servitude, Paris, Mille et une nuits, 2011.
  • Allègre G., « L’expérimentation sociale des incitations financières à l’emploi : questions méthodologiques et leçons des expériences nord-américaines », Document de travail, Observatoire français des conjonctures économiques (OFCE), 2008.
  • – « L’expérimentation du revenu de solidarité active entre objectifs scientifiques et politiques », Revue de l’OFCE, vol. 113, no 2, 2010, p. 59-90.
  • Angrist J. et Lavy  V., « Using Maimonides’ rule to estimate the effect of class size on scholastic achievement », The Quarterly Journal of Economics, vol. 114, no 2, 1999, p. 533-575.
  • Arif T. et al., « Promotion of improved cookstove in rural Bangladesh », Working Paper, BRAC, 2011.
  • Armendáriz B. et Morduch  J., The Economics of Microfinance, Cambridge/Londres, The MIT Press, 2010.
  • Ashraf N., Berry  J. et Shapiro  J.M., « Can higher prices stimulate product use ? Evidence from a field experiment in Zambia », American Economic Review, vol. 100, no 5, 2010, p. 2383-2413.
  • Ashraf N., Karlan  D. et Yin  W., « Tying Odysseus to the mast : evidence from a commitment savings product in the Philippines », The Quarterly Journal of Economics, vol. 121, no 2, 2006, p. 635-672.
  • Attanasio O. et al., « Group lending or individual lending ? Evidence from a randomised field experiment in Mongolia », Working Paper, European Bank for Reconstruction and Development, 2011.
  • Attanasio O., Kugler  A. et Meghir  C., « Subsidizing vocational training for disadvantaged youth in Colombia : evidence from a randomized trial », American Economic Journal. Applied Economics, vol. 3, no 3, 2011, p. 188-220.
  • Attanasio O., Meghir  C. et Santiago  A., « Education choices in Mexico : using a structural model and a randomised experiment to evaluate Progresa », Working Paper, 2009.
  • Avvisati F. et al., « Getting parents involved : a field experiment in deprived schools », CEPR Discussion Paper, 2010a.
  • – « Quels effets attendre d’une politique d’implication des parents d’élèves dans les collèges ? Les enseignements d’une expérimentation contrôlée », Rapport pour le haut commissaire à la Jeunesse, 2010b.
  • Baird S. et al., « Worms at work : long-run impacts of child health gains », Working Paper, 2011.
  • Banerjee A.V., Making Aid Work, Cambridge, The MIT Press, 2007.
  • Banerjee A.V. et al., « Remedying education : evidence from two randomized experiments in India », The Quarterly Journal of Economics, vol. 122, no 3, 2007, p. 1235-1264.
  • – « Pitfalls of participatory programs : evidence from a randomized evaluation in education in India », American Economic Journal. Economic Policy, vol. 2, no 1, 2010, p. 1-30.
  • – « Do informed voters make better choices ? Experimental evidence from urban India », Working Paper, 2011.
  • Banerjee A.V. et Duflo  E., « L’approche expérimentale en économie du développement », Revue d’économie politique, vol. 119, 2009, p. 691-726.
  • – Repenser la pauvreté, Paris, Seuil, 2012.
  • Banerjee A.V., Duflo  E. et Glennerster  R., « Putting a band-aid on a corpse : incentives for nurses in the Indian public health care system », Journal of the European Economic Association, vol. 6, no 2-3, 2008, p. 487-500.
  • Banerjee A.V., Duflo  E., Glennerster  R. et Kothari  D., « Improving immunisation coverage in rural India : clustered randomised controlled evaluation of immunisation campaigns with and without incentives », BMJ, vol. 340, 2010.
  • Banerjee A.V., Duflo  E., Glennerster  R. et Kinnan  C., « The miracle of microfinance ? Evidence from a randomized evaluation », Working Paper, 2010.
  • Banque mondiale, Suivi et évaluation : quelques outils, méthodes, approches, Washington, DC, Banque mondiale, 2004.
  • Barnes B.R., « The Hawthorne effect in community trials in developing countries », International Journal of Social Research Methodology, vol. 13, no 4, 2010, p. 357-370.
  • Barrera-Osorio F. et Linden  L.L., « The use and misuse of computers in education : evidence from a randomized controlled trial of a language arts program », Working Paper, 2009.
  • Basinga P. et al., « Effect on maternal and child health services in Rwanda of payment to primary health-care providers for performance : an impact evaluation », The Lancet, vol. 377, no 9775, 2011, p. 1421-1428.
  • Basu K., « New empirical development economics : remarks on its philosophical foundations », Economic and Political Weekly, vol. 40, no 40, 2005, p. 4336-4339.
  • Beaman L. et al., « Powerful women : does exposure reduce bias ? », The Quarterly Journal of Economics, vol. 124, no 4, 2009, p. 1497-1540.
  • – « Female leadership raises aspirations and educational attainment for girls : a policy experiment in India », Science, vol. 335, no 6068, 2012, p. 582-586.
  • Behaghel L., Lire l’économétrie, Paris, La Découverte, « Repères », 2006.
  • Behaghel L., Crépon  B. et Gurgand  M., « Private and public provision of counseling to job-seekers : evidence from a large controlled experiment », Working Paper, 2012.
  • Behaghel L. et al., « Les effets de l’internat d’excellence de Sourdun sur les élèves bénéficiaires : résultats d’une expérience contrôlée », Rapport pour le Fonds d’expérimentation pour la jeunesse, 2013.
  • Berg G.J. van den et Klaauw  B. van der, « Counseling and monitoring of unemployed workers : theory and evidence from a controlled social experiment », International Economic Review, vol. 47, no 3, 2006, p. 895-936.
  • Bernard T., Delarue  J. et Naudet  J.-D., « Impact evaluations : a tool for accountability ? Lessons from experience at Agence française de développement », The Journal of Development Effectiveness, vol. 4, no 2, 2012, p. 314-327.
  • Berry J. et Linden  L.L., « Bridges classes and peer networks among out-of-school children in India », Working Paper, J-PAL, 2009.
  • Björklund A. et Hakan  R., « Experimental evaluation of European labour market policy », in International Handbook of Labour Market Policy and Evaluation, Cheltenham, Edward Elgar Publishing, 1996, p. 89-114.
  • Björkman M. et Svensson  J., « Power to the people : evidence from a randomized field experiment on community-based monitoring in Uganda », The Quarterly Journal of Economics, vol. 124, no 2, 2009, p. 735-769.
  • Bobonis G.J., Miguel  E. et Puri-sharma  C., « Anemia and school participation », The Journal of Human Resources, vol. 41, no 4, 2006, p. 692-721.
  • Boisard P., « Contre la pauvreté, une économie à l’épreuve de l’expérience », Esprit, vol. 3-4, 2010, p. 184-188.
  • Bold T. et al., « Scaling up what works : experimental evidence on external validity in Kenyan education », Working Paper, Center for Global Development, 2013.
  • Borkum E., He F. et Linden  L.L., « School libraries and language skills in Indian primary schools : a randomized evaluation of the Akshara library program », Working Paper, 2009.
  • Bourdieu P., « Le champ scientifique », Actes de la recherche en sciences sociales, vol. 2, no 2, p. 88-104, 1976.
  • – Algérie 60 : structures économiques et structures temporelles, Paris, Minuit, 1977.
  • Bozio A. et Grenet  J. (dir.), Économie des politiques publiques, Paris, La Découverte, « Repères », 2010.
  • Bruhn M. et McKenzie  D., « In pursuit of balance : randomization in practice in development field experiments », Policy Research Working Paper Series, Banque mondiale, 2008.
  • Brune L. et al., « Commitments to save : a field experiment in rural Malawi », Policy Research Working Paper Series, Banque mondiale, 2011.
  • Bulte E. et al., « Pseudo-placebo effects in randomized controlled trials for development : evidence from a double-blind field experiment in Tanzania », Working Paper, 2012.
  • Burtless G., « The case for randomized field trials in economic and policy research », Journal of Economic Perspectives, vol. 9, no 2, 1995, p. 63-84.
  • Cadena X. et Schoar  A., « Remembering to pay ? Reminders vs. financial incentives for loan payments », Working Paper, National Bureau of Economic Research, 2011.
  • Campbell D.T., « Reforms as experiments », American Psychologist, vol. 4, no 24, 1969, p. 407-429.
  • Card D. et Krueger  A.B., « Minimum wages and employment : a case study of the fast-food industry in New Jersey and Pennsylvania », American Economic Review, vol. 84, no 4, 1994, p. 772-93.
  • Carpena F. et al., « Unpacking the causal chain of financial literacy », Policy Research Working Paper Series, Banque mondiale, 2011.
  • Chattopadhyay R. et Duflo  E., « Women as policy makers : evidence from a randomized policy experiment in India », Econometrica, vol. 72, no 5, 2004, p. 1409-1443.
  • Chaudhury N. et al., « Missing in action : teacher and health worker absence in developing countries », Journal of Economic Perspectives, vol. 20, no 1, 2006, p. 91-116.
  • Chong A., Karlan  D.S. et al., « Tried and true ? The contextual specificity of "proven" approaches to behavioral change », Working Paper, Inter-American Development Bank, 2011.
  • Chong A., O A.L.D.L. et al., « Looking beyond the incumbent : the effects of exposing corruption on electoral outcomes », Working Paper, National Bureau of Economic Research, 2011.
  • Cohen J. et Dupas  P., « Free distribution or cost-sharing ? Evidence from a randomized malaria prevention experiment », Quarterly Journal of Economics, vol. 125, no 1, 2010, p. 1-45.
  • Cole S. et al., « Barriers to household risk management : evidence from India », Working Paper, Harvard Business School, 2012.
  • Cole S., Sampson T. et Zia  B., « Prices or knowledge ? What drives demand for financial services in emerging markets ? », Journal of Finance, vol. 66, no 6, 2011, p. 1933-1967.
  • Collin A., « J-PAL Europe, du laboratoire à l’institution ? », mémoire de master 2, université Paris-III-Sorbonne nouvelle, 2011.
  • Comité d’évaluation des expérimentations, Rapport final sur l’évaluation des expérimentations rSa, Paris, La Documentation française, 2009.
  • Concato J., Shah  N. et Horwitz  R.I., « Randomized, controlled trials, observational studies, and the hierarchy of research designs », The New England Journal of Medicine, vol. 342, no 25, 2000, p. 1887-1892.
  • Cordonnier L., « Pourquoi les économistes se sont-ils trompés à ce point ? », L’Économie politique, vol. 50, no 2, 2011, p. 32-44.
  • Couty P., « Qualitatif et quantitatif », STATECO, 1983a.
  • – (dir.), « Le chiffre, la carte et la parole », in Qualitatif et quantitatif : deux modes d’investigation complémentaires. Réflexions à partir des recherches de l’ORSTOM en milieu rural africain, vol. 1, no 43, 1983b, p. 49-77 (note de travail AMIRA).
  • Crépon B., Devoto  F. et al., « Impact of microcredit in rural areas of Morocco : evidence from a randomized evaluation », Working Paper, 2011.
  • Crépon B. et al., « Do labor market policies have displacement effects ? Evidence from a clustered randomized experiment », The Quarterly Journal of Economics, vol. 128, no 2, 2013, p. 531-580.
  • Crépon B., Gurgand  M. et al., « Is counseling welfare recipients cost-effective ? Lessons from a random experiment », Working Paper, 2011.
  • Deaton A., « Forum », in Banerjee  A.V., Making Aid Work, Cambridge, The MIT Press, 2007, p. 55-62.
  • – « Instruments, randomization, and learning about development », Journal of Economic Literature, vol. 48, no 2, 2010, p. 424-55.
  • De Long J.B. et Lang  K., « Are all economic hypotheses false ? », Journal of Political Economy, vol. 100, no 6, 1992, p. 1257-1272.
  • Desrosières A., L’Argument statistique I. Pour une sociologie historique de la quantification, Paris, Mines ParisTech-Les Presses, 2008.
  • Dhaliwal I. et al., « Comparative cost-effectiveness analysis to inform policy in developing countries : a general framework with applications for education », Working Paper, 2012.
  • Drexler A., Fischer  G. et Schoar  A., « Keeping it simple : financial literacy and rules of thumb », Working Paper, 2011.
  • Duflo E., « Schooling and labor market consequences of school construction in Indonesia : evidence from an unusual policy experiment », American Economic Review, vol. 91, no 4, 2001, p. 795-813.
  • – « Scaling up and evaluation », in Bourguignon  F. et Pleskovic  B. (dir.), Accelerating Development, Washington DC/Oxford, World Bank/Oxford University Press, 2004, p. 342-367.
  • – « Évaluer l’impact des programmes d’aide au développement : le rôle des évaluations par assignation aléatoire », Revue d’économie du développement, vol. 19, no 2, 2005, p. 185-226.
  • – Expérience, science et lutte contre la pauvreté, Paris, Fayard, 2009.
  • – Le Développement humain, Paris, Seuil, 2010.
  • Duflo E., Dupas  P. et Kremer  M., « Peer effects, teacher incentives, and the impact of tracking : evidence from a randomized evaluation in Kenya », American Economic Review, vol. 101, no 5, 2011, p. 1739-1774.
  • – « School governance, teacher incentives and pupil-teacher ratios : experimental evidence from Kenyan primary schools », Working Paper, 2012.
  • Duflo E., Glennerster  R. et Kremer  M., « Using randomization in development economics research : a toolkit », in Schultz  T. et Strauss  J. (dir.), Handbook of Development Economics, vol. 4, Amsterdam/New York, North Holland, 2008, p. 3895-3962.
  • Duflo E., Greenstone  M. et Hanna  R., « Indoor air pollution, health and economic well-being », Working Paper, 2008.
  • Duflo E., Hanna  R. et Ryan  S.P., « Incentives work : getting teachers to come to school », American Economic Review, vol. 102, no 4, 2012, p. 1241-1278.
  • Duflo E. et Kremer  M., « Use of randomization in the evaluation of development effectiveness », mimeo, 2003.
  • Dupas P., « Do teenagers respond to HIV risk information ? Evidence from a field experiment in Kenya », American Economic Journal. Applied Economics, vol. 1, no 3, 2011, p. 1-34.
  • Durand C. et Nordmann  C., « Misère de l’économie du développement », RdL, La Revue des livres, vol. 1, 2011.
  • Easterly W., « Development experiments : Ethical ? Feasible ? Useful ? », http://aidwatchers. com/2009/07/development-experiments-ethical-feasible-useful/, consulté le 29  novembre 2012.
  • Evans D., Kremer  M. et Ngatia  M., « The impact of distributing school uniforms on children’s education in Kenya », Working Paper, 2009.
  • Feigenberg B., Field  E. et Pande  R., « The economic returns to social interaction : experimental evidence from microfinance », Working Paper, 2011.
  • Ferracci M. et Wasmer  É., État moderne, État efficace : évaluer les  dépenses publiques pour sauvegarder le modèle français, Paris, Odile Jacob, 2011.
  • Ferraz C. et Finan  F., « Exposing corrupt politicians : the effects of Brazil’s publicly released audits on electoral outcomes », The Quarterly Journal of Economics, vol. 123, no 2, 2008, p. 703-745.
  • Field E. et al., « Debt structure, entrepreneurship, and risk : evidence from microfinance », Working Paper, 2011.
  • Field E. et Pande  R., « Repayment frequency and default in microfinance : evidence from India », Journal of the European Economic Association, vol. 6, no 2-3, 2008, p. 501-509.
  • Finn J.D. et Achilles  C.M., « Answers and questions about class size : a statewide experiment », American Educational Research Journal, vol. 27, no 3, 1990, p. 557-577.
  • Fougère D., « Expérimenter pour évaluer les politiques d’aide à l’emploi : les exemples anglo-saxons et nord-européens », Revue française des affaires sociales, vol. 54, no 1, 2000, p. 111-144.
  • – « Les méthodes micro-économétriques d’évaluation », Notes d’études et de recherche, Banque de France, 2007.
  • Franke R.H. et Kaul  J.D., « The Hawthorne experiments : first statistical interpretation », American Sociological Review, vol. 43, no 5, 1978, p. 623-643.
  • Gaurav S., Cole  S. et Tobacman  J., « Marketing complex financial products in emerging markets : evidence from rainfall insurance in India », Journal of Marketing Research, vol. 48, 2011.
  • Gerber A.S., Karlan  D. et Bergan  D., « Does the media matter ? A field experiment measuring the effect of newspapers on voting behavior and political opinions », American Economic Journal. Applied Economics, vol. 1, no 2, 2009, p. 35-52.
  • Gertler P.J. et Boyce  S., « An experiment in incentive-based welfare : the impact of Progresa on health in Mexico », Working Paper, 2001.
  • Giné X., Goldberg  J. et Yang  D., « Credit market consequences of improved personal identification : field experimental evidence from Malawi », Working Paper, 2011.
  • Giné X. et Karlan  D., « Group versus individual liability : long term evidence from Philippine microcredit lending groups », Working Paper, 2011.
  • Giné X., Karlan  D. et Zinman  J., « Put your money where your butt is : a commitment contract for smoking cessation », American Economic Journal. Applied Economics, vol. 2, 2010, p. 213-235.
  • Giné X., Townsend  R.M. et Vickery  J.I., « Patterns of rainfall insurance participation in rural India », Working Paper, 2008.
  • Glewwe P. et al., « Retrospective vs. prospective analyses of school inputs : the case of flip charts in Kenya », Journal of Development Economics, vol. 74, no 1, 2004, p. 251-268.
  • Glewwe P., Ilias  N. et Kremer  M., « Teacher incentives », American Economic Journal. Applied Economics, vol. 2, no 3, 2010, p. 205-27.
  • Glewwe P., Kremer  M. et Moulin  S., « Many children left behind ? Textbooks and test scores in Kenya », American Economic Journal. Applied Economics, vol. 1, no 1, 2009, p. 112-35.
  • Glewwe P., Park  A. et Zhao  M., « A better vision for development : eyeglasses and academic performance in rural primary schools in China », Working Paper, 2011.
  • Gomel B. et Serverin  E., « Évaluer l’expérimentation sociale », Document de travail, Centre d’études de l’emploi, 2011.
  • Graversen B.K. et Ours  J.C. van, « How to help unemployed find jobs quickly ? Experimental evidence from a mandatory activation program », Journal of Public Economics, vol. 92, no 10-11, 2008, p. 2020-2035.
  • Guérin I. et al., « Analyse des déterminants de la demande de services financiers dans le Maroc rural », Ex Post, AFD, 2011.
  • Hanna R., Duflo  E. et Greenstone  M., « Up in smoke : the influence of household behavior on the long-run impact of improved cooking stoves », Discussion Paper Series, MIT, 2012.
  • He F., Linden  L.L. et MacLeod  M., « How to teach English in India : testing the relative productivity of instruction methods within the Pratham English language education program », Working Paper, 2008.
  • Heckman J.J., « Randomization and social policy evaluation », Working Paper, National Bureau of Economic Research, 1991.
  • Heckman J.J., Ichimura  H. et Todd  P.E., « Matching as an econometric evaluation estimator : evidence from evaluating a job training programme », The Review of Economic Studies, vol. 64, no 4, 1997, p. 605-654.
  • Heckman J.J. et Smith  J.A., « Assessing the case for social experiments », Journal of Economic Perspectives, vol. 9, no 2, 1995, p. 85-110.
  • Hoxby C., « Peer effects in the classroom : learning from gender and race variation », Working Paper, National Bureau of Economic Research, 2000.
  • Jacquet P., « La recherche en économie sert-elle le développement ? », L’Économie politique, vol. 50, no 2, 2011, p. 84-92.
  • Jalan J. et Somanathan  E., « The importance of being informed : experimental evidence on demand for environmental quality », Journal of Development Economics, vol. 87, no 1, 2008, p. 14-28.
  • Jatteau A., « Les expérimentations aléatoires en économie du développement : enjeux critiques, pratique de terrain et portée politique », mémoire de master  2, EHESS, 2011.
  • – « Le poids des chiffres, le choc de l’aléatoire. L’impact des évaluations aléatoires sur l’action publique », Amiens, colloque « Construction et usages des indicateurs », 2013a.
  • – « Le chiffre, la parole et la preuve. Retour sur les pratiques épistémologiques des expérimentations aléatoires », Bordeaux, congrès de l’AFEP, 2013b.
  • Jensen R.T. et Miller  N.H., « Do consumer price subsidies really improve nutrition ? », Review of Economics and Statistics, vol. 93, no 4, 2011, p. 1205-1223.
  • J-PAL, « Showing up is the first step », Policy Briefcase, J-PAL, 2009.
  • Karlan D. et al., « Getting to the top of mind : how reminders increase saving », Working Paper, 2011.
  • Karlan D. et Goldberg  N., « The impact of microfinance : a review of methodological issues », mimeo, 2007.
  • Karlan D., Morten  M. et Zinman  J., « A personal touch : text messaging for loan repayment », Working Paper, 2012.
  • Karlan D. et Valdivia  M., « Teaching entrepreneurship : impact of business training on microfinance clients and institutions », The Review of Economics and Statistics, vol. 93, no 2, 2011, p. 510-527.
  • Karlan D. et Zinman  J., « Microcredit in theory and practice : using randomized credit scoring for impact evaluation », Science, vol. 332, no 6035, 2011, p. 1278-1284.
  • Keel O., La Médecine des preuves : une  histoire de l’expérimentation thérapeutique par essais cliniques contrôlés, Montréal, Presses de l’université de Montréal, 2011.
  • Klasen S., « La recherche sur le développement peut-elle contribuer au développement ? », L’Économie politique, vol. 50, no 2, 2011, p. 93-105.
  • Kohler H.-P. et Thornton  R., « Conditional cash transfers and HIV/AIDS prevention : unconditionally promising ? », Working Paper, 2010.
  • Kremer M., « Randomized evaluations of educational programs in developing countries : some lessons », The American Economic Review, vol. 93, no 2, 2003, p. 102-106.
  • Kremer M. et al., « Spring cleaning : rural water impacts, valuation, and property rights institutions », Quarterly Journal of Economics, vol. 126, no 1, 2011, p. 145-205.
  • Kremer M. et Levy  D., « Peer effects and alcohol use among college students », Journal of Economic Perspectives, vol. 22, 2008, p. 189-206.
  • Kremer M., Miguel  E. et Thornton  R., « Incentives to learn », Review of Economics and Statistics, vol. 91, no 3, 2009, p. 437-456.
  • L’Horty Y. et al., « Faut-il subventionner le permis de conduire des jeunes en difficulté d’insertion ? », Rapport d’évaluation quantitative, FEJ, 2012.
  • L’Horty Y. et Petit  P., « Expérimentations sociales et évaluation aléatoires », Revue française d’économie, vol. 26, no 4, 2012, p. 13-48.
  • Labrousse A., « Nouvelle économie du développement et essais cliniques randomisés : une mise en perspective d’un outil de preuve et de gouvernement », Revue de la régulation, vol. 7, 2010.
  • – « Hard or poor numbers ? Les expérimentations aléatoires, une mesure objective permettant de repenser le développement ? », séminaire « Randomisation et résiliences », université de Versailles-Saint-Quentin-en-Yvelines, 2013.
  • Laurent C. et al., « Pourquoi s’intéresser à la notion d’evidence-based policy ? », Tiers Monde, vol. 200, no 4, 2009, p. 853-873.
  • Lebaron F., La Croyance économique. Les économistes entre science et politique, Paris, Seuil, 2000.
  • Leuven E., Oosterbeek  H. et Klaauw  B. van der, « The effect of financial rewards on students’ achievement : evidence from a randomized experiment », Journal of the European Economic Association, vol. 8, no 6, 2010, p. 1243-1265.
  • Levine D. et Beltramol  T., « The effect of solar ovens on fuel use, emissions, and health : results from a randomized controlled trial », Working Paper, 2011.
  • Levitt S.D. et List  J.A., « Field experiments in economics : the past, the present, and the future », Working Paper, National Bureau of Economic Research, 2008.
  • Lordon F., « Le désir de "faire science" », Actes de la recherche en sciences sociales, vol. 119, 1997, p. 27-35.
  • Macours K., Premand  P. et Vakis  R., « Transfers, diversification and household risk strategies : experimental evidence with lessons for climate change adaptation », Working Paper, 2012.
  • Marks H., « L’irruption de la preuve statistique en médecine », La Recherche, no 316, 1999a, p. 76-81.
  • – La Médecine des preuves. Histoire et anthropologie des essais cliniques, 1900-1990, Le Plessis-Robinson, Institut Synthélabo pour le progrès de la connaissance, 1999b.
  • Matthews J.N.S., Introduction to Randomized Controlled Clinical Trials, Boca Raton, Chapman & Hall/CRC, 2006.
  • Maxwell J.A., « Using qualitative methods for causal explanation », Field Methods, vol. 16, no 3, 2004, p. 243-264.
  • Mayo E., The Human Problems of an Industrial Civilization, New York, The Macmillan Company, 1933.
  • McCarney R. et al., « The Hawthorne effect : a randomised, controlled trial », BMC Medical Research Methodology, vol. 7, no 1, 2007, p. 30.
  • Miguel E. et Kremer  M., « Worms : identifying impacts on education and health in the presence of treatment externalities », Econometrica, vol. 72, no 1, 2004, p. 159-217.
  • Mobarak A.M. et al., « Low demand for nontraditional cookstove technologies », Proceedings of the National Academy of Sciences, 2012.
  • Monnier É., Évaluations de l’action des pouvoirs publics, Paris, Economica, 1992.
  • Muralidharan K. et Sundararaman  V., « Teacher performance pay : experimental evidence from India », Journal of Political Economy, vol. 119, no 1, 2011, p. 39-77.
  • Oakley A., « Experimentation and social interventions : a forgotten but important history », BMJ, vol. 317, no 7167, 1998, p. 1239-1242.
  • Ogien A., Désacraliser le chiffre dans l’évaluation du secteur public, Versailles, Quae, 2013.
  • Olivier de Sardan  J.-P., La Rigueur du qualitatif. Les contraintes empiriques de l’interprétation socio-anthropologique, Louvain-la-Neuve, Academia Bruylant, 2008.
  • Olken B.A., « Monitoring corruption : evidence from a field experiment in Indonesia », Journal of Political Economy, vol. 115, no 2, 2007, p. 200-249.
  • – « Corruption perceptions vs. corruption reality », Journal of Public Economics, vol. 93, no 7-8, 2009, p. 950-964.
  • Oster E. et Thornton  R., « Menstruation, sanitary products, and school attendance : evidence from a randomized evaluation », American Economic Journal. Applied Economics, vol. 3, no 1, 2011, p. 91-100.
  • Ozier O., « Exploiting externalities to estimate the long-term effects of early childhood deworming », Working Paper, 2011.
  • Parienté W., « Analyse d’impact : apport des évaluations aléatoires », Stateco, DIAL, 2008.
  • Perret B., L’Évaluation des politiques publiques, Paris, La Découverte, « Repères », 2008.
  • Piketty T., « L’impact de la taille des classes et de la ségrégation sociale sur la réussite scolaire dans les écoles françaises : une estimation à partir du panel primaire 1997 », Document de travail, 2004.
  • Pradhan M. et al., « Improving educational quality through enhancing community participation : results from a randomised field experiment in Indonesia », Working Paper, 2012.
  • Ravallion M., « Evaluation in the practice of development », World Bank Research Observer, vol. 24, no 1, 2009, p. 29-53.
  • Rodrik D., « The new development economics : we shall experiment, but how shall we learn ? », HKS Working Paper, vol. 55, 2008.
  • Rosholm M. et Skipper  L., « Is labour market training a curse for the unemployed ? Evidence from a social experiment », Journal of Applied Econometrics, vol. 24, no 2, 2009, p. 338-365.
  • Rothwell P.M., « External validity of randomised controlled trials : "To whom do the results of this trial apply ?" », The Lancet, vol. 365, no 9453, 2005, p. 82-93.
  • Sacerdote B., « Peer effects with random assignment : results for Dartmouth roommates », Quarterly Journal of Economics, vol. 116, no 2, 2001, p. 681-704.
  • Sackett D.L. et al., « Evidence-based medicine : what it is and what it isn’t », BMJ, vol. 312, no 7023, 1996, p. 71-72.
  • Schultz T.P., « School subsidies for the poor : evaluating the Mexican Progresa poverty program », Journal of Development Economics, vol. 74, no 1, 2004, p. 199-250.
  • Selz M. et Maillochon  F., Le Raisonnement statistique en sociologie, Paris, PUF, 2009.
  • Shadish W.R., Cook  T.D. et Campbell  D.T., Experimental and Quasi-Experimental Designs for Generalized Causal Inference, Boston, Houghton Mifflin, 2001.
  • Thistlethwaite D.L. et Campbell  D.T., « Regression-discontinuity analysis : an alternative to the ex post facto experiment », Journal of Educational Psychology, vol. 51, no 6, 1960, p. 309-317.
  • Thomas J. et al., « Integrating qualitative research with trials in systematic reviews », BMJ, vol. 328, no 7446, 2004, p. 1010-1012.
  • Thornton R., « The demand for, and impact of, learning HIV status : evidence from a field experiment », American Economic Review, vol. 98, no 5, 2008, p. 1829-1863.
  • Vermeersch C. et Kremer  M., « School meals, educational achievement, and school competition : evidence from a randomized evaluation », Policy Research Working Paper Series, Banque mondiale, 2004.
  • Walque D. de et al., « Incentivising safe sex : a randomised trial of conditional cash transfers for HIV and sexually transmitted infection prevention in rural Tanzania », BMJ Open, vol. 2, no 1, 2012.
  • Zamora P., « La méthode d’évaluation aléatoire : apports et limites », Tracés, hors-série, no 3, 2011, p. 175-186.
  • Zwane A.P. et al., « Being surveyed can change later behavior and related parameter estimates », Proceedings of the National Academy of Sciences, vol. 108, no 5, 2011, p. 1821-1826.

Pour citer cet article

Jatteau Arthur , Les expérimentations aléatoires en économie, La découverte « Repères », 2013, p. 111-121.
URL : www.cairn.info/les-experimentations-aleatoires-en-economie--9782707169464-page-111.htm.


Chapitre précédent Pages 111 - 121 Chapitre suivant
© 2010-2014 Cairn.info
back to top
Feedback