Módulo | Sesión | Temario |
I. Diseñar proyectos de investigación | 1 | Presentación general, objetivos formativos del curso y formas de evaluación. Panorama general de contenidos: investigar e intervenir Formas de investigar en Ciencias Sociales, lógica inferencial, métodos, incertidumbre y complejidad |
2 | Principales componentes del diseño de investigación: la pregunta, la teoría, los datos y su utilización, universo y selección de la muestra | |
3 | Inferencial descriptiva y causal: conectado teoría y datos, consecuencias observables, mecanismos, criterios para construir teorías causales | |
4 | ¿Qué observar y qué evitar?: diseños indeterminados, limitaciones de la selección aleatoria, sesgos de selección y selección intencional, errores de medición y control | |
5 | Cantidad de observaciones: estudios de caso, estudios comparativos, analogía, medidas, unidades | |
6 | El diseño experimental en Ciencias Sociales: nociones básicas, tipos de diseño, tratamiento y control | |
II. Diseñar proyectos de intervención | 7 | Bases de la metodología del Marco Lógico (ciclo de vida del proyecto, identificación del problema, alternativas, objetivos, impacto, población objetivo, actores involucrados, estrategias) |
8 | Diagnóstico, teoría del programa, formulación, programación e implementación | |
9 | Evaluación y monitoreo (E&M): ¿para qué evaluar y monitorear? Perspectivas de la investigación evaluativa, “evaluabilidad”, enfoques y diseño de E&M (externa, autoevaluación, participativa), la dimensión temporal de la evaluación (ex ante, durante, durante, ex post) | |
10 | Diseños e indicadores de E&M: diseñar una estrategia E&M, evaluación de impacto, línea de base, construcción e interpretación de indicadores | |
11 | Software de gestión de proyectos y “paneles de control” (Open Project y otras herramientas) | |
III. Aplicaciones prácticas y ejemplos: el diseño de proyectos en el Instituto de Psicología de la Salud
| 12 | Docente invitado 1: ejemplo diseño de investigación 1 |
13 | Docente invitado 2: ejemplo diseño de investigación 2 | |
14 | Docente invitado 3: ejemplo diseño de intervención 1 | |
15 | Docente invitado 4: ejemplo diseño de intervención 2 | |
16 | Innovaciones en diseños de investigación e intervención: diseños originales, calidad e impacto social, debates contemporáneos sobre diseño de proyectos
|
Bibliografía
Módulo I
King, Gary W.; Keohane, Robert y Verba, Sidney (2000). El diseño de la investigación social. La inferencia científica en los estudios cualitativos. Madrid: Alianza
Elster, Jon (2005). En favor de los mecanismos. Sociológica, año 19, número 57, pp. 239-273. Enero-abril de 2005
Campbell, Donald T. y Stanley, Julian C. (2012). Diseños experimentales y cuasiexperimentales en la investigación social. Amorrurtu (primera edición 1966)
Blatter, Joachim y Haverland, Markus (2012). Two or three approaches to explanatory case study research? Paper prepared for presentation at the Annual Meeting of the American Political Science Association, New Orleans, August 30 – September 2, 2012. Panel 8-10 Quantitative Qualitative
Blattman, Christopher; Jamison, Julian; Koroknay-Palicz, Tricia; Rodrigues, Katherine; Sheridan, Margaret (2015). Measuring the measurement error: A method to qualitatively validate survey data. Journal of Development Economics 120 (2016) 99-112
Chima, Jugdep S. (2005). What’s the Utility of the Case-Study Method for Social Science Research?: A Response to Critiques from the Quantitative/Statistical Perspective. Paper for delivery at the 2005 Annual Meeting of the American Political Science Association, September 1-4, 2005. Copyright by the American Political Science Association.
Collier, David (1993). The Comparative Method. En: Political Science: The state of the discipline II Finifer, Ada, F. (Ed.). Washington DC. American Political Science Association
Collier, David (2011). Understanding Process Tracing. PS: Political Science & Politics, 2011 - Cambridge Univ Press.
Collier, David; LaPorte, Jody y Seawright, Jason (2012). Putting Typologies to Work: Concept Formation, Measurement, and Analytic Rigor Political Research Quarterly 65(1) 217 –232 University of Utah. Sage
Flyvbjerg, Bent (2011). Case Study. En: “The Sage Handbook of Qualitative Research", 4th. Edition en Norman K. Denzin y Yvonna S. Lincoln (Eds.). Capítulo 17, pp. 301-316)
Guber, Rosana (2004). El salvaje metropolitano Reconstrucción del conocimiento social en el trabajo de campo. Editorial Paidós, Buenos Aires
Hammersley, Martyn (2004). The Sage Encyclopedia of Social Research Methods (SAGE Publications 2004) Vol. 2, 750
Módulo II
Manual metodológico de evaluación multicriterio para programas y proyectos. CEPAL - Serie Manuales 58. Instituto Latinoamericano y del Caribe de Planificación Económica y Social (ILPES). Santiago de Chile, julio de 2008
Navarro, Hugo (2005). Manual para la evaluación de impacto de proyectos y programas de lucha contra la pobreza. Serie Manuales 41. CEPAL. Santiago de Chile, enero de 2005
Navarro, Hugo; King, Katiuska; Ortegón, Edgar y Pacheco, Juan Francisco (2006). Pauta metodológica de evaluación de impacto ex-ante y ex-post de programas sociales de lucha contra la pobreza: aplicación metodológica. Serie Manuales 48. CEPAL. Santiago de Chile, enero de 2006
Ortegón, Edgar; Pacheco, Juan Francisco y Prieto, Adriana (2005). Metodología del marco lógico para la planificación, el seguimiento y la evaluación de proyectos y programas. Serie Manuales 42. CEPAL. Naciones Unidas, Santiago de Chile (reimpresión 2015)
Astbury, Brad y Frans L. Leeuw (2010). Unpacking Black Boxes: Mechanisms and Theory Building in Evaluation BAmerican Journal of Evaluation 2010 31: 363
Coryn, Chris L. S.; Noakes, Lindsay A.; Westine, Carl D. y Schröter, Daniela C. (2010). A Systematic Review of Theory-Driven Evaluation Practice From 1990 to 2009 American Journal of Evaluation 2011 32: 199 originally published online 12 November 2010
Fetterman, David y Wandersman, Abraham. Empowerment Evaluation: Yesterday, Today, and Tomorrow. American Journal of Evaluation 2007 28: 179
OpenProject User Guide (2017) https://community.openproject.org/.../OpenProject_User_Guide [2] (consultado 29 de mayo de 2017)
Scriven M. (1998). The new science of evaluation The new science of evaluation. Scand J Soc Welfare 1998: 7: 79–86 ß Blackwell, 1998
Thomas, David R. (2006). A General Inductive Approach for Analyzing Qualitative Evaluation Data. American Journal of Evaluation, Vol. 27 No. 2, June 2006 237-246
Tourmen, Claire (2009). Evaluators' Decision Making: The Relationship Between Theory, Practice, and Experience American Journal of Evaluation 2009 30: 7
Weiss, Carol H. (1987). Evaluating Social Programs: What Have We Learned. A QUARTER-CENTURY OF SOCIAL SCIENCE / 41
Módulo III
Brady, Henry E. y Collier, David (eds.) (2004). Rethinking Social Inquiry: Diverse Tools, Shared Standards
Collier, David (2011). Teaching Process Tracing: Examples and Exercises. Political Science and Politics, 2011 – static.cambridge.org
Lowhorn, G. L. (2007). Qualitative and quantitative research: How to choose the best design
VanWynsberghe, Rob y Khan, Samia (2007). Redefining Case Study. International Journal of Qualitative Methods 6 (2) June 2007
Beach, Dereky y Pedersen, Rasmus Brun (2011). What is process tracing actually tracing? The three variants of process tracing methods and their uses and limitations. Paper prepared for presentation at The American Political Science Association annual meeting Seattle, Washington, USA September 1-4, 2011. PRELIMINARY DRAFT
Balle Hansen, Morten y Vedung, Evert (2010) Theory-Based Stakeholder Evaluation American Journal of Evaluation 2010 31: 295
Boyle, P. y Boyle S. (2008). A Multidisciplinary Model of Evaluation Capacity Building Hallie American Journal of Evaluation 2008 29: 443 originally published online 11 September 2008
Follari, Javier. Cuali/Cuanti: La distinción paleozoica. Forum: Qualitative Social Research. 2014, Vol. 15 Issue 2, p1-36. 36P
Fonseca, Claudia (1999). Quando cada caso NÃO é um caso. Pesquisa etnográfica e educação. Trabalho apresentado na XXI Reunião Anual da ANPEd, Caxambu, setembro de 1998
Herrera, Luis Carlos (2015). Metodología de la Investigación Social: Discusión epistemológica entre el datismo y el dadaísmo. Invest. pens. Crit. Vol. 3, No. 1, enero-abril 2015. pp. 67-81
Kozinets, Robert V (2002). The field behind the screen: Using netnography for marketing research in online, JMR, Journal of Marketing Research; Feb 2002; 39, 1; ABI/INFORM Global. P61
Lago, Ignacio (2008). La lógica de la explicación en las ciencias sociales. Una introducción metodológica. Madrid: Alianza
Lanham, Md.: Rowman and Littlefield. Gerring, John ( 2014). Metodología de las ciencias sociales. Madrid: Alianza
Mahoney, James (2010). After KKV: Thee New Methodology of qualitative Research. World Politics 62 (01), pp120-147
Ragin, Charles, C (1987). The Comparative Method. Moving beyond Qualitative and Quantitative Strategies. University of California Press. Berkeley
Reed, Isaac (2008). Maximal Interpretation in Clifford Geertz and the Strong Program in Cultural Sociology: Towards a New Epistemology, Cultural Sociology 2008; 2; 18 Research
Salas Blas, Edwin (2013). Pre-experimental designs in psychology and education: a conceptual review. Liberabit. Jun2013, Vol. 19 Issue 1, p133-141. 9p.
No corresponde
Se evaluará el nivel de lectura y compresión de la bibliografía, así como la apropiación activa de los conceptos y las herramientas de diseño de proyectos de investigación e intervención.
Al finalizar el curso se espera que el estudiante sea capaz de:
Día | Horario | Salón | Código de horario |
---|---|---|---|
miércoles | 18:30 a 20:00 | Salón 7 | 894 - Grupo 12 - Nicolás Brunet |