1. Inicio
  2. Noticias
  3. Causalidad para lograr mejores políticas públicas, con Rodrigo Pérez

Causalidad para lograr mejores políticas públicas, con Rodrigo Pérez

Rodrigo Pérez nos invita en este capítulo a pasar del “parece que ayuda” al “está demostrado que ayuda” en materia de políticas públicas, especialmente en el agro, y decisiones en general.

En el episodio 34 de Curiosos, el periodista Iván Troncoso conversa con Rodrigo Pérez, profesor del Departamento de Economía Agraria de la Pontificia Universidad Católica de Chile y director del Magíster en Economía Agraria y Ambiental.

Con un PhD en The Ohio State University y amplia experiencia en políticas públicas, recursos naturales y desarrollo rural, Rodrigo Pérez aterriza —en lenguaje claro— qué significa medir impacto y cómo distinguir entre lo que “parece ayudar” y lo que está comprobado que ayuda.

Dónde ver/oír a Rodrigo Pérez

YouTube: EP #34 - Causalidad para tomar mejores decisiones públicas: Conversación con Rodrigo Pérez 

Spotify: EP #34 - Causalidad para tomar mejores decisiones públicas: Conversación con Rodrigo Pérez 

Podcast.Apple: EP #34 - Causalidad para tomar mejores decisiones públicas: Conversación con Rodrigo Pérez

Correlación no es causalidad

La conversación arranca con una distinción esencial: correlación no es causalidad. Rodrigo ilustra el punto con un ejemplo cotidiano: en verano sube tanto el consumo de helados como el uso de piscinas, pero no porque uno cause lo otro; la causa común es la mayor temperatura.

Este mismo error de lectura —confundir asociación con efecto— aparece en debates públicos, como las alertas sobre medicamentos basadas en asociaciones observacionales que no demuestran causalidad (p. ej. paracetamol y autismo, en EE. UU.).

La enseñanza es directa: antes de concluir que “A causa B”, hay que preguntarse si hay terceras variables o mejores diagnósticos detrás del aparente vínculo.

Evaluar programas

A partir de ahí, el episodio propone una ruta práctica para evaluar programas. Primero, vale un análisis descriptivo/correlacional para entender patrones iniciales. Luego viene lo crucial: probar causalidad con métodos adecuados y, después, intentar falsificar los hallazgos para verificar su solidez.

Cuando los diseños experimentales puros no son posibles —algo habitual en políticas públicas— emergen alternativas como regresión discontinua (aprovechar umbrales de elegibilidad), seguimiento en panel de las mismas personas en el tiempo, y emparejamiento o matching con todas sus cautelas. La clave es construir el mejor “como si fuera un experimento” que permitan los datos y las reglas del programa.

¿Y cómo era antes...?

Uno de los tropiezos más frecuentes, advierte Rodrigo Pérez, es empezar a intervenir sin pensar la evaluación. Si no hubo línea de base previa, comparar antes y después se vuelve difícil; y si el beneficio se ofrece “a todo el que postule”, luego cuesta encontrar un buen contrafactual, porque quienes postulan suelen diferir de quienes no lo hacen.

La solución pasa por planificar desde el inicio: medir antes de intervenir, definir grupo tratado y grupo de comparación y, cuando no haya aleatoriedad, buscar discontinuidades, diferencias en territorios similares o diseños cuasi experimentales que permitan inferir efectos con rigor.

Crítico: La calidad de los datos

El episodio también entra en la calidad de los datos. Las muestras grandes y, sobre todo, el muestreo aleatorio en las encuestas, importan más de lo que parece. Las encuestas online, por ejemplo, suelen sesgarse hacia personas con mayor acceso y disposición tecnológica, lo que distorsiona resultados y dificulta atribuir cambios al programa.

En procesos de levantamiento, Pérez describe el backstage: diseñar el cuestionario, pilotear, ajustar y recién entonces aplicar a escala, un ciclo que puede tomar muchos meses cuando se busca representatividad real.

Sobre criterios para decidir si escalar, ajustar o cerrar un programa, Rodrigo propone partir por un análisis costo–beneficio: cuánto se invierte y qué beneficios genera. Pero agrega dos matices relevantes.

Primero, considerar un bienestar más amplio que lo estrictamente monetario —calidad de vida, sentido de pertenencia, efectos distributivos—, aun cuando valorarlos sea desafiante.

Y segundo, mirar cómo se distribuyen los beneficios: un gran retorno agregado puede esconder brechas crecientes entre productores grandes y pequeños, lo que sugiere rediseños para ganar en equidad sin perder efectividad.

En el mundo del agro

En el sector agro, donde inciden sequías, precios y cambio climático, el equipo de Pérez ha estudiado cómo las variaciones climáticas repercuten en empleo, ingresos y migración, diferenciando entre ocupaciones agrícolas y no agrícolas.

Además de medir efectos del clima, examinan cómo ciertas políticas públicas amortiguan o, a veces, exacerban desigualdades y vulnerabilidades.

Estos hallazgos muestran por qué una buena evaluación no es un trámite técnico: orienta decisiones que afectan, en concreto, la vida de las personas y la resiliencia de los territorios.

Hacer papers y divulgación

La conversación dedica un tramo a comunicar evidencia. El mundo académico premia artículos técnicos y en inglés, lo que deja a tomadores de decisión y comunidades fuera del circuito. Pérez aboga por una “doble vía”: publicar con rigor, pero también traducir resultados a gráficos simples, frases comprensibles y ejemplos concretos (“por cada peso extra gastado, el puntaje sube X puntos”), para que la evidencia se use donde importa: en el diseño y la gestión de programas.

Para cerrar, Rodrigo Pérez ofrece una reflexión que funciona como guía mental para cualquier lector: cuando veas un resultado, pregúntate si lo observado habría ocurrido igual sin el programa. Si la respuesta es sí, el efecto es bajo o nulo; si es no, hay mérito atribuible a la intervención.

Pensar en sesgos de selección, causalidad inversa y variables omitidas cambia la forma de leer estudios, titulares y promesas de política.
Y si quieres dar el paso siguiente, arranca por lo básico: levanta líneas de base, define grupos de comparación y haz de la buena medición un componente del diseño, no un apéndice del final. Esa es, en esencia, la invitación del episodio 34: pasar del “parece que ayuda” al “está demostrado que ayuda”.

Episodios anteriores de Curiosos

¿Quieres disfrutar los anteriores episodios del podcast Curiosos? En los siguientes enlaces podrás ver o escuchar a Carlos Amunátegui, Catalina Vargas, Cristián Plaza, Daniel Toscano, Alejandra González Celis, María José Navia, Felipe Encinas, Viviana Hojman, María Soledad Herrera, Paula Aguirre, José Miguel Aguilera y Carolina Moreno, Eduardo Arellano, Consuelo Ceppi de Lecco, Rodrigo Mayorga, Alejandra Vargas, Andrés Ried, Óscar y Beatriz Wirth, el Dr. Pablo Aguilera, Paolo Bortolameolli, Jeannette von Wolfersdorff, Pedro Traverso, María José Pérez, Josefina Movillo, al cardenal Fernando Chomali, Karen Connolly, Denisse Goldfarb, Antonio Kovacevic, Daniel Halpern, Carolina Martínez y Eduardo Fermandois.

YouTube: https://www.youtube.com/@EducacionContinuaUC/videos

En Spotify: https://open.spotify.com/show/79ERsKPPiVwMSLj2fiXsQ7

Podcast Apple: https://podcasts.apple.com/us/podcast/curiosos/id1801084667

 

Lee sobre todos los talleres, cursos y diplomados que ofrece Educación Continua UC. 

¿Te gusta esta publicación?
Comparte esta publicación
Facebook Twitter LinkedIn