1581 palabras
El 4 de julio, la Agencia de noticias Proceso publicó la nota 'GEA/Isa atribuye a “algunos” ciudadanos el fracaso de sus encuestas': La empresa encuestadora GEA/Isa, que bajo patrocinio del diario Milenio publicó durante 100 días resultados manipulados de los comicios presidenciales para favorecer a Enrique Peña Nieto, atribuyó su errata de 11.5 por ciento al que ciudadanos que les informaron que votarían por el candidato del PRI “no acudieron a las urnas”. (Leer más)
El 11 de julio, Franz Fortuny Loret de Mola, director de Artículo 7, preguntó a Ricardo de la Peña, presidente ejecutivo de Investigaciones Sociales Aplicadas:
Mi hipótesis es que ustedes distribuyeron a los indecisos, constantemente, en forma proporcional a los que sí contestaban.
Eso hizo que el del PRI siempre apareciera más arriba.
Yo creo que jamás se debería permitir hacer eso.
Las encuestas solo deberían publicar lo que obtienen: porcentajes afirmativos y % de indecisos debidamente explicado.
Eso habría mostrado a Peña con solo 36 puntos una buena parte del tiempo. Eso habría provocado que los que estaban por los otros candidatos no lo vieran tan lejanamente inalcanzable e hicieran malabarismo electoral, en vez de votar por el partido realmente preferido.
¿Me podría explicar por qué decidieron distribuir en forma proporcional a los indecisos? De hecho, ni siquiera proporcional: parece que le daban a Peña un PESO MAYOR que a los otros. ¿Por qué?
En Yucatán, en forma sistemática el voto por el PAN se ha escondido siempre. Al final de la elección siempre es mayor el voto por el PAN que el que encuentran las encuestas.
Los votantes por el PRI están decididos desde el primer día. Es MÍNIMA la proporción de indecisos que finalmente se irán por el PRI.
Saludos,
Esperando comentarios,
Franz de J Fortuny L de M
http://a7.com.mx - Director
El 12 de julio, Ricardo de la Peña / GEA-ISA (cuyo lema es Mensajes directos, claros y precisos) envió al periodista Franz Fortuny la siguiente explicación:
Don Franz:
En parte, tiene usted razón. Por buenas prácticas y por normatividad las empresas investigadoras que publican encuestas sobre preferencias electorales están obligadas a reportar la distribución directamente observada de sus casos, incluyendo la proporción de no respuesta o no asignación de los entrevistados a alguna opción definida. Eso hicimos, y ese debiera ser invariablemente el dato relevante de un estudio, aunque el tratamiento mediático sea otro.
Pero también difundimos un cálculo de la distribución de los casos en que los entrevistados sí definieron una intención de voto por algún candidato, lo que constituye un ejercicio no de asignación de indecisos, sino de exclusión, pues asume no que se repartirán como los definidos, sino que no votarán, condición sobre la que existía y existe evidencia.
Sin embargo, aún con dicho ejercicio de exclusión, las proporciones de casos con respuestas a favor de algún candidato representaban en nuestros estudios, al igual que en la mayoría de los otros estudios, más de ochenta por ciento de casos, lo que suponía que reflejaba la distribución de preferencias de una proporción de la ciudadanía muy superior a la que efectivamente concurrió a las urnas, que fue apenas algo más de sesenta por ciento.
No deja de ser importante observar que en dos casos en que las distribuciones de los casos con intención definida de voto se aproximaron relativamente más a los resultados, las proporciones de casos observados que definían su voto eran las más elevadas: fueron los casos de Covarrubias y Asociados e IPSOS BIMSA, que reportaron no respuesta a la pregunta electoral de seis a siete por ciento. Es decir: sus distribuciones de casos definidos correspondían a 94 o 93 por ciento del electorado, treinta puntos o más sobre la participación real.
Para disponer de una estimación pertinente sobre la distribución de los votantes, había luego que excluir más de veinte por ciento de casos que declaraban una intención, pero que no iban a participar. Esto es: había que aplicar un filtro para entresacar los "votantes probables" del universo de electores con una preferencia definida.
No hicimos eso, pues como gremio no sabíamos y no sabemos bien cómo hacerlo con la certidumbre debida. Algunas casas encuestadoras, como nosotros, simplemente no realizamos este ejercicio, apoyados en dos elementos previamente documentados: que el patrón de participación según sentido del voto no era relevante para fines de estimación, es decir: que no cambiaban mayormente las proporciones si se filtraba el segmento de votantes probables del conjunto de electores con una definición de su voto, como nos había ocurrido en ocasiones anteriores, pero según parece sí pasó esta vez; y que los modelos de los que se disponía no aproximaban, sino más bien alejaban las estimaciones del resultado.
Otras encuestadoras se atrevieron a realizar un ejercicio de modelado que filtraba los "votantes probables". Buendía & Laredo e IPSOS BIMSA lo hicieron con modelos que consideraron pertinentes y al realizarlo alejaron sus estimaciones del resultado, lo que en el segundo caso provocó un cambio drástico de una separación observada de seis puntos a doce puntos con el modelo.
Demotecnia, de María de las Heras, por el contrario, aplicó un modelo de filtrado que permitió que de un dato observado que separaba a los dos primeros lugares por doce puntos, al modelarlo la separación fuera de solamente ocho puntos, muy próxima al resultado real. Cabría recordar, empero, que este mismo modelo provocó hace seis años que la estimación de la misma casa fuera la más distante al resultado, por lo que no podría tomarse como un modelo probado ni de empleo en cualquier condición.
Los propios datos de Demotecnia, igual que otras fuentes, permiten asumir un hecho relevante: en esta ocasión el patrón de participación de los electores con una preferencia por algún candidato no fue homogénea, sino que participaron menos quienes declaraban preferir al candidato que resultaría ganador que a sus oponentes. Entre quienes definían su intención de voto por un candidato pero no concurrieron a votar, apenas la quinta parte se orientaba por respaldar al segundo lugar, mientras que casi la mitad se inclinaban por quien resultó ganador.
Este sólo hecho explicaría la diferencia entre lo que reportaban las encuestas, referido siempre a una población que eran los electores registrados, con los votantes efectivos, subconjunto de la población observada cuya detección es equívoca hoy día.
No podemos saber realmente cómo se distribuían las preferencias de los electores, pues todo ejercicio de validación mediante el cotejo de resultados de los comicios con encuestas enfrenta el problema de no poder diferenciar error de la estimación y diferencia entre poblaciones que fueron observadas. Al revés, tampoco sabemos bien cómo pasar de distribuciones observadas del segmento de electores definidos a estimaciones de preferencias de los votantes probables.
Esta construcción de un modelo eficiente de detección de votantes entre electores entrevistados que sistemáticamente arroje estimaciones próximas con el resultado en las urnas debiera ser nuestra tarea central.
Existen dos posibilidades: que podamos encontrarlo o que no lo encontremos. Si lo encontramos, debemos aplicarlo. Si no lo encontramos, por límites de conocimiento o porque no exista en la realidad, debemos declararlo: los datos de las encuestas que hemos publicado se refieren a las preferencias reportadas en un momento determinado para una población que no corresponde con el electorado. Lo hicimos, por ética y por norma, pero debiéramos destacarlo cada ocasión.
Algunos pensamos que si no contamos con un modelo de decantación de votantes entre electores, debiéramos pensar la pertinencia de publicar estudios que pudieran ser tomados como mediciones válidas para el segmento de votantes potenciales cuando desconocemos la relación que guardan nuestras mediciones con ese universo. Esas será un decisión de cada investigador a futuro, pero la autolimitación es una posibilidad que no debiera excluirse.
Saludos.
Ricardo de la Peña.
De GEA-ISA