Diseño de proyectos

Docentes participantes

Unidad curricular obligatoria

Diseño de proyectos

Vigente desde

2017

Vigente hasta

2017

Lugar

Montevideo

Instituto

Instituto de Psicología y Salud

Ciclo

Formación integral

Modulo

PyP

Creditos

5

Conocimientos previos

  • Metodología general de la investigación
  • Métodos y herramientas orientadas a la extensión
  • Métodos y Técnicas cualitativas
  • Ética y deontología
  • Métodos y Técnicas cuantitativas
  • Psicología y Salud

Contenidos

Módulo

Sesión

Temario

I. Diseñar proyectos de investigación

1

Presentación general, objetivos formativos del curso y formas de evaluación. Panorama general de contenidos: investigar e intervenir

Formas de investigar en Ciencias Sociales, lógica inferencial, métodos, incertidumbre y complejidad

2

Principales componentes del diseño de investigación: la pregunta, la teoría, los datos y su utilización, universo y selección de la muestra

3

Inferencial descriptiva y causal: conectado teoría y datos, consecuencias observables, mecanismos, criterios para construir teorías causales

4

¿Qué observar y qué evitar?: diseños indeterminados, limitaciones de la selección aleatoria, sesgos de selección y selección intencional, errores de medición y control

5

Cantidad de observaciones: estudios de caso, estudios comparativos, analogía, medidas, unidades

6

El diseño experimental en Ciencias Sociales: nociones básicas, tipos de diseño, tratamiento y control

II. Diseñar proyectos de intervención

7

Bases de la metodología del Marco Lógico (ciclo de vida del proyecto, identificación del problema, alternativas, objetivos, impacto, población objetivo, actores involucrados, estrategias)

8

Diagnóstico, teoría del programa, formulación, programación e implementación

9

Evaluación y monitoreo (E&M): ¿para qué evaluar y monitorear? Perspectivas de la investigación evaluativa, “evaluabilidad”, enfoques y diseño de E&M (externa, autoevaluación, participativa), la dimensión temporal de la evaluación (ex ante, durante, durante, ex post)

10

Diseños e indicadores de E&M: diseñar una estrategia E&M, evaluación de impacto, línea de base, construcción e interpretación de indicadores

11

Software de gestión de proyectos y “paneles de control” (Open Project y otras herramientas)

III. Aplicaciones prácticas y ejemplos: el diseño de proyectos en el Instituto de Psicología de la Salud

 

12

Docente invitado 1: ejemplo diseño de investigación 1

13

Docente invitado 2: ejemplo diseño de investigación 2

14

Docente invitado 3: ejemplo diseño de intervención 1

15

Docente invitado 4: ejemplo diseño de intervención 2

16

Innovaciones en diseños de investigación e intervención: diseños originales, calidad e impacto social, debates contemporáneos sobre diseño de proyectos

 

Bibliografía

Módulo I

  • Obligatoria

King, Gary W.; Keohane, Robert y Verba, Sidney (2000). El diseño de la investigación social. La inferencia científica en los estudios cualitativos. Madrid: Alianza

Elster, Jon (2005). En favor de los mecanismos. Sociológica, año 19, número 57, pp. 239-273. Enero-abril de 2005

Campbell, Donald T. y Stanley, Julian C. (2012). Diseños experimentales y cuasiexperimentales en la investigación social. Amorrurtu (primera edición 1966)

  • Ampliatoria

Blatter, Joachim y Haverland, Markus (2012). Two or three approaches to explanatory case study research? Paper prepared for presentation at the Annual Meeting of the American Political Science Association, New Orleans, August 30 – September 2, 2012. Panel 8-10 Quantitative Qualitative

Blattman, Christopher; Jamison, Julian; Koroknay-Palicz, Tricia; Rodrigues, Katherine; Sheridan, Margaret (2015). Measuring the measurement error: A method to qualitatively validate survey data. Journal of Development Economics 120 (2016) 99-112

Chima, Jugdep S. (2005). What’s the Utility of the Case-Study Method for Social Science Research?: A Response to Critiques from the Quantitative/Statistical Perspective. Paper for delivery at the 2005 Annual Meeting of the American Political Science Association, September 1-4, 2005. Copyright by the American Political Science Association.

Collier, David (1993). The Comparative Method. En: Political Science: The state of the discipline II Finifer, Ada, F. (Ed.). Washington DC. American Political Science Association

Collier, David (2011). Understanding Process Tracing. PS: Political Science & Politics, 2011 - Cambridge Univ Press.

Collier, David; LaPorte, Jody y Seawright, Jason (2012). Putting Typologies to Work: Concept Formation, Measurement, and Analytic Rigor Political Research Quarterly 65(1) 217 –232 University of Utah. Sage

Flyvbjerg, Bent (2011). Case Study. En: “The Sage Handbook of Qualitative Research", 4th. Edition en Norman K. Denzin y Yvonna S. Lincoln (Eds.). Capítulo 17, pp. 301-316)

Guber, Rosana (2004). El salvaje metropolitano Reconstrucción del conocimiento social en el trabajo de campo. Editorial Paidós, Buenos Aires

Hammersley, Martyn (2004). The Sage Encyclopedia of Social Research Methods (SAGE Publications 2004) Vol. 2, 750

Módulo II

  • Obligatoria

Manual metodológico de evaluación multicriterio para programas y proyectos. CEPAL - Serie Manuales 58. Instituto Latinoamericano y del Caribe de Planificación Económica y Social (ILPES). Santiago de Chile, julio de 2008

Navarro, Hugo (2005). Manual para la evaluación de impacto de proyectos y programas de lucha contra la pobreza.  Serie Manuales 41. CEPAL. Santiago de Chile, enero de 2005

Navarro, Hugo; King, Katiuska; Ortegón, Edgar y Pacheco, Juan Francisco (2006). Pauta metodológica de evaluación de impacto ex-ante y ex-post de programas sociales de lucha contra la pobreza: aplicación metodológica. Serie Manuales 48. CEPAL. Santiago de Chile, enero de 2006

Ortegón, Edgar; Pacheco, Juan Francisco y Prieto, Adriana (2005). Metodología del marco lógico para la planificación, el seguimiento y la evaluación de proyectos y programas. Serie Manuales 42. CEPAL. Naciones Unidas, Santiago de Chile (reimpresión 2015)

  • Ampliatoria

Astbury, Brad y Frans L. Leeuw (2010). Unpacking Black Boxes: Mechanisms and Theory Building in Evaluation BAmerican Journal of Evaluation 2010 31: 363

Coryn, Chris L. S.; Noakes, Lindsay A.; Westine, Carl D. y Schröter, Daniela C. (2010). A Systematic Review of Theory-Driven Evaluation Practice From 1990 to 2009 American Journal of Evaluation 2011 32: 199 originally published online 12 November 2010

Fetterman, David y Wandersman, Abraham. Empowerment Evaluation: Yesterday, Today, and Tomorrow. American Journal of Evaluation 2007 28: 179

OpenProject User Guide (2017) https://community.openproject.org/.../OpenProject_User_Guide (consultado 29 de mayo de 2017)

Scriven M. (1998). The new science of evaluation  The new science of evaluation. Scand J Soc Welfare 1998: 7: 79–86 ß Blackwell, 1998

Thomas, David R. (2006). A General Inductive Approach for Analyzing Qualitative Evaluation Data. American Journal of Evaluation, Vol. 27 No. 2, June 2006 237-246

Tourmen, Claire (2009). Evaluators' Decision Making: The Relationship Between Theory, Practice, and Experience American Journal of Evaluation 2009 30: 7

Weiss, Carol H. (1987). Evaluating Social Programs: What Have We Learned. A QUARTER-CENTURY OF SOCIAL SCIENCE / 41

Módulo III

  • Obligatoria

Brady, Henry E. y Collier, David (eds.) (2004). Rethinking Social Inquiry: Diverse Tools, Shared Standards

Collier, David (2011). Teaching Process Tracing: Examples and Exercises. Political Science and Politics, 2011 – static.cambridge.org

Lowhorn, G. L. (2007). Qualitative and quantitative research: How to choose the best design

VanWynsberghe, Rob y Khan, Samia (2007). Redefining Case Study. International Journal of Qualitative Methods 6 (2) June 2007

  • Ampliatoria

Beach, Dereky y Pedersen, Rasmus Brun (2011). What is process tracing actually tracing? The three variants of process tracing methods and their uses and limitations. Paper prepared for presentation at The American Political Science Association annual meeting Seattle, Washington, USA September 1-4, 2011. PRELIMINARY DRAFT

Balle Hansen, Morten y Vedung, Evert (2010) Theory-Based Stakeholder Evaluation  American Journal of Evaluation 2010 31: 295

Boyle, P. y Boyle S. (2008). A Multidisciplinary Model of Evaluation Capacity Building Hallie American Journal of Evaluation 2008 29: 443 originally published online 11 September 2008

Follari, Javier. Cuali/Cuanti: La distinción paleozoica. Forum: Qualitative Social Research. 2014, Vol. 15 Issue 2, p1-36. 36P

Fonseca, Claudia (1999). Quando cada caso NÃO é um caso. Pesquisa etnográfica e educação. Trabalho apresentado na XXI Reunião Anual da ANPEd, Caxambu, setembro de 1998

Herrera, Luis Carlos (2015). Metodología de la Investigación Social: Discusión epistemológica entre el datismo y el dadaísmo. Invest. pens. Crit. Vol. 3, No. 1, enero-abril 2015. pp. 67-81

Kozinets, Robert V (2002). The field behind the screen: Using netnography for marketing research in online, JMR, Journal of Marketing Research; Feb 2002; 39, 1; ABI/INFORM Global. P61

Lago, Ignacio (2008). La lógica de la explicación en las ciencias sociales. Una introducción metodológica. Madrid: Alianza

Lanham, Md.: Rowman and Littlefield. Gerring, John ( 2014). Metodología de las ciencias sociales. Madrid: Alianza

Mahoney, James (2010). After KKV: Thee New Methodology of qualitative Research. World Politics 62 (01), pp120-147

Ragin, Charles, C (1987). The Comparative Method. Moving beyond Qualitative and Quantitative Strategies. University of California Press. Berkeley

Reed, Isaac (2008). Maximal Interpretation in Clifford Geertz and the Strong Program in Cultural Sociology: Towards a New Epistemology, Cultural Sociology 2008; 2; 18 Research

Salas Blas, Edwin (2013). Pre-experimental designs in psychology and education: a conceptual review. Liberabit. Jun2013, Vol. 19 Issue 1, p133-141. 9p.

 

 

 

 

Objetivos formativos

  1. Incorporar nociones y habilidades prácticas básicas para diseñar proyectos de investigación de calidad.
  2. Introducir al estudiante en tareas de diagnósitco, proyectación, organización, implementación y evaluación de proyectos de intervención de alto impacto.
  3. Propiciar la apropiación de herramientas profesionales para desempeñarse en equipos multidisciplinarios.

Metodologia presencial

  1. Exposición teórica del docente y trabajo práctico en diseño de proyectos de investigación e intervención 
  2. Presentación de experiencias, resultados y desafíos asociados al diseño de proyectos de los docentes del Instituto de Psicología de la Salud y docentes invitados (diversas temáticas)
  3. Utilización de la plataforma virtual EVA como repositorio de material bibliográfico, información y consulta

Metodologia no presencial

No corresponde
 

Criterios de evaluacion

Se evaluará el nivel de lectura y compresión de la bibliografía, así como la apropiación activa de los conceptos y las herramientas de diseño de proyectos de investigación e intervención.

Dispositivos de evaluacion

  1. Completar un (1) control de lectura individual (verdadero-falso, múltiple opción), obteniendo como mínimo 60% de las respuestas acertadas. 
  2. Diseñar un proyecto de investigación o intervención original, a realizarse en grupos de cinco estudiantes, que será entregado al finalizar el curso. Se buscará que este aspecto sea trabajado desde el inicio del curso y que los grupos puedan avanzar gradualmente en la elaboración de su proyecto durante el período de clases. Se admitirá reformulación por única vez.
  3. Al finalizar el curso el estudiante completará un formulario de evaluación del curso.

Competencias

Al finalizar el curso se espera que el estudiante sea capaz de:

  1. Identificar elementos básicos del diseño de proyectos de investigación e intervención de calidad académica y alto impacto social
  2. Aplicar conceptos, herramientas y diseños de monitoreo y evaluación para proyectos de intervención
  3. Interpretar indicadores cualitativos y cuantitativos de control del ciclo de un proyecto
  4. Diseñar y presentar su propio proyecto de investigación o intervención original

Horarios

Horarios
DíaHorarioSalónCódigo de horario
miércoles18:30 a 20:00Salón 7894 - Grupo 12 - Nicolás Brunet