Termómetro electoral
¿Por qué fallaron las encuestas?
La advertencia a los ‘pollsters’ es clara: no os podéis fiar, aunque las elecciones se repitan en seis meses. Una parte de los electores puede darle la espalda a un partido en un período muy corto de tiempo, y poner patas arriba los pronósticos
Fray Poll 6/07/2016
En CTXT podemos mantener nuestra radical independencia gracias a que las suscripciones suponen el 70% de los ingresos. No aceptamos “noticias” patrocinadas y apenas tenemos publicidad. Si puedes apoyarnos desde 3 euros mensuales, suscribete aquí
La metedura de pata con Unidos Podemos ha sido memorable. La mayoría de los sondeos anticipaba el sorpasso, y, con él, la victoria del centro izquierda. La previsión se mantuvo estable durante la campaña y, para más inri, la fidelidad de los votantes de Podemos parecía medio-alta, similar a la del PP. Como bien es sabido, la coalición obtuvo un 21,1% de los sufragios, dejándose por el camino más de un millón de votos. Así que es lógico que muchos nos preguntemos ¿porqué no lo vimos venir?
Hay mucha información pendiente de producir y de procesar que, seguramente, nos ayudará. Por ahora y como punto de partida, nos planteamos dos líneas de investigación. O bien los electores no votaron como se esperaba debido a factores coyunturales, o bien los sondeos midieron mal el apoyo a Unidos Podemos. Por supuesto, ambos fenómenos son compatibles. Pero la división es útil. Señala dos itinerarios de indagación diferentes que vale la pena considerar. Sobre el primero, realizaremos algunas observaciones; sobre el segundo, lanzaremos incluso una explicación tentativa.
Los electores, a merced de las circunstancias
¿Qué tienen en común las interpretaciones de Íñigo Errejón (dos más dos no suman cuatro), Pablo Iglesias (la campaña del miedo) y Gaspar Llamazares (la desafección del votante de IU)? Pues que todas son explicaciones intuitivas que aluden a circunstancias coyunturales que habrían influido en los electores. Eso sí, para creérnoslas, necesitamos evidencias que las respalden.
La lista de factores que, potencialmente, han podido influir en el voto es amplia y variada. Así, a bote pronto se nos ocurren: el Brexit, la mejora en las expectativas económicas, el diseño y los mensajes de campaña, los debates en televisión, la publicación de encuestas, la competición con el PSOE, la polarización con el PP, la coincidencia con el final de la luna de miel de los “ayuntamientos del cambio”, la falta de incentivos en la colocación de los candidatos de IU en las listas… Todos son, a priori, elementos válidos que nos podrían servir para dar cuenta del retroceso de Unidos Podemos. Pero ¿nos ayudan a explicar el fracaso de las encuestas? Para que así sea, deberían aclararnos por qué su impacto fue imperceptible en los sondeos y mediante qué mecanismos, finalmente, influyeron en la jornada electoral.
En cualquier caso, explicar el voto no es tarea fácil. Se suele tardar años y no siempre se alcanza un consenso. Por tanto, deberíamos poner en cuarentena, en la medida de lo posible, las opiniones intuitivas basadas en evidencias precarias. Pongamos un ejemplo. En un artículo reciente publicado en InfoLibre, Ignacio Sánchez Cuenca observa una correlación negativa entre el voto a IU y los resultados de Unidos Podemos. Es decir, donde el voto a IU fue más fuerte el 20D, peores resultados obtuvo la confluencia el 26J. El artículo, de inmediato, se lo apropiaron los críticos de IU que no veían con buenos ojos la alianza con Podemos. Según su interpretación, la coalición no habría convencido a una parte considerable del electorado de IU, que habría preferido abstenerse. Esta misma semana, Gaspar Llamazares, en una entrevista con el diario El Mundo, incluía el artículo de Sánchez Cuenca en su repertorio de argumentos.
Pero ¿qué nos muestra el artículo de Sánchez Cuenca? En nuestra opinión, una distribución regional del voto que, por otro lado, no era novedosa. Por ejemplo, la encuesta preelectoral del CIS ya nos adelantaba que a Unidos Podemos le iba a ir peor en Asturias y mejor en País Vasco. Esa misma encuesta, además, pronosticaba que la coalición obtendría un 25,6% de los votos. Es decir, un resultado buenísimo. ¿Habría incluido Llamazares esta observación en sus comentarios si a Unidos Podemos le hubiese ido tan bien? ¿Qué sentido habría tenido decir que te ha ido peor donde IU era más fuerte si el resultado hubiese sido bueno?
Para ilustrar mejor este punto, hemos cocinado la encuesta preelectoral del CIS siguiendo una receta convencional. Cuando contrastamos los pronósticos con los resultados reales constatamos que Unidos Podemos estuvo por debajo de las expectativas en prácticamente todas las provincias, independientemente del apoyo previo que tuviera IU. En el gráfico siguiente lo tenéis representado.
La lectura es sencilla: cuanto más próximo está un pronóstico a la línea diagonal, mayor es su cercanía al resultado oficial. Como puede observarse, los resultados estuvieron por debajo de las expectativas incluso en aquellas provincias en las que, supuestamente, a Unidos Podemos le ha ido bien. Por ejemplo, en Barcelona, en casi toda Galicia o en Vizcaya. Visto así, da la impresión de que la candidatura se desinfló por todo lo largo y ancho del país y no solo donde IU tenía más votos.
¿Quiere decir esto que Sánchez Cuenca se equivoca? Pues ni una cosa, ni la otra. Todavía no lo sabemos. Por supuesto, es bueno ir lanzando propuestas que tengan algún fundamento, aunque queden a expensas de comprobaciones posteriores. De hecho, antes de terminar este artículo lanzaremos una propuesta propia, si cabe, más atrevida. Lo que sí recomendamos es, por ahora, evitar confusiones. Cuando leamos un análisis que diga “Unidos Podemos cayó más donde...” tengamos cuidado, ya que este tipo de aproximaciones ni corroboran ni descartan nada.
El propio Sánchez Cuenca cita otro elemento que podría tener relación con la pérdida de votos de Unidos Podemos: el diferente grado de apoyo a las reivindicaciones nacionalistas. Donde más simpatía hacia estas posiciones existe, mejor aguanta el voto de Unidos Podemos. Suena razonable, pero por supuesto, no prueba nada. En la misma línea podemos citar otros factores y respaldarlos con una evidencia igualmente precaria y provisional. Por ejemplo, podríamos decir que la imagen de Pablo Iglesias es la responsable y acompañar tal afirmación con el siguiente gráfico.
Pero seamos claros. No tenemos ni idea, por ahora, de cuál ha sido el impacto de Pablo Iglesias en el 26J. Lo que sí sabemos es que, en diciembre, a la hora de anticipar si un elector se inclina por IU o por Podemos, su valoración era el mejor predictor. ¿Podemos afirmar, en consecuencia, que el voto a IU del 20D se explica a partir de las evaluaciones de los electores de izquierdas de la figura de Pablo Iglesias? Tal vez. Pero a lo mejor es al revés y se valoraba peor a Pablo Iglesias en los sitios donde el espacio de la izquierda estaba más disputado por una IU más fuerte. Es un dilema que, hoy por hoy y con la información disponible, es tan irresoluble como el del huevo y la gallina.
La medición del apoyo a Unidos Podemos
La noche de 26J, tras el cierre de los colegios, se difundieron los resultados de dos encuestas. Por un lado, el “macrodispendio a pie de urna” de Sigma Dos que, dados sus antecedentes, evitaremos mencionar. Pero también la estimación final de GAD3, un tracking al que le teníamos cierta confianza y que, suponemos, alcanzó a cubrir el 26J. Su pronóstico fue que Unidos Podemos sacaría el 24,8% de los votos. Así que la intriga es todavía mayor ¿Cómo es posible que un estudio de estas características, metido ya en el día de la votación, tampoco detectara el retroceso? Da la impresión de que todos los sondeos, independientemente de su fecha y forma de realización, incurrieron en algún error que infló sistemáticamente a Unidos Podemos. Pero ¿cómo puede suceder algo así?
La cocina de una encuesta se basa en dos ingredientes básicos: por un lado, en lo que la gente afirma que va a votar y, por el otro, en lo que la gente dice haber votado en las anteriores elecciones. Este último dato es fundamental, ya que, si la encuesta no representa bien a los electores de cada partido, hay que “corregirla”. Esto es, si en mi encuesta salen demasiados electores, por ejemplo, del PSOE de las anteriores generales, tengo que quitarles algo de peso para equilibrar su influencia conforme al resultado real de ese partido.
Como se puede ver en la tabla, el pasado 20 de diciembre un 14,8% de los censados residentes en España votó a Podemos o a sus confluencias. Sin embargo, cuando el CIS hace su encuesta, un mes después, de enero de 2016, se encuentra con un 18,3% de personas que afirman haber votado a esa opción.
Este fenómeno (la discrepancia entre las encuestas y los resultados oficiales) es una constante en los estudios demoscópicos y tiene variadas explicaciones. En este caso, pongamos que las personas que votaron a Podemos el 20D son más propensas a ser encuestadas. Tal vez están más disponibles, pasan más tiempo en casa, viven en barrios más accesibles a los encuestadores o, sencillamente, les interesa más la política y cuando se les pide participar en una encuesta aceptan sin pensárselo dos veces. Si eso es así, para hacer una proyección de voto tradicional, simplemente hay que “corregir” la encuesta, “quitándoles algo de peso” para que sus opiniones tengan la influencia que les corresponde.
Ahora bien. Si se fijan en la tabla, se darán cuenta de que, en el mes de mayo, la proporción de personas que afirma haber votado a Podemos en la encuesta es dos puntos inferior a la de enero, mientras que la que afirmaba haber votado al PSOE y a IU es dos puntos mayor. Supongamos que este descenso no se debe al azar, sino a que parte de los electores de Podemos del 20D (en concreto, un 11%) le había dado la espalda a esta formación, prefiriendo identificarse en la encuesta como votantes del PSOE o de IU.
Si fuese así, los electores de Podemos serían, en realidad, bastante menos fieles de lo que aparentan. Cuando repetimos la proyección de voto incorporando esta nueva información, la estimación para Unidos Podemos pasa del 24,1% al 22,2%, aproximando los pronósticos a los resultados reales incluso en los lugares donde ya había confluencias, como Cataluña y Galicia.
Puede que esta “corrección” no tenga un sólido respaldo teórico, pero cuando la aplicamos a otras elecciones ante problemas parecidos, en prácticamente todos los casos los pronósticos se mueven en la dirección correcta. Eso sí, necesitaríamos contar con más datos que los del CIS. En concreto, deberíamos corroborar que las encuestadoras privadas también registraron, entre enero y mayo de 2016, una caída similar en el volumen de personas que se reconocían como votantes de Podemos del 20D.
Si fuera el caso, la advertencia a los pollsters es clara. No os podéis fiar. Aunque las elecciones se repitan en seis meses. Una parte de los electores puede darle la espalda a un partido en un período muy corto de tiempo, y poner patas arriba los pronósticos. Es algo que ya ha sucedido, en varias ocasiones, en nuestra historia demoscópica (aunque en este caso es, recordamos, solo una hipótesis).
La lectura política de los resultados también daría un giro sustantivo. Ni la campaña ni la confluencia habrían tenido un gran impacto. La clave estaría en que a Podemos, en abril, le iba peor de lo que pensábamos. El problema sería anterior a la confluencia y no estaría –al menos en buena medida-- vinculado en el electorado de IU. Sería el reflejo de una desmovilización parcial del electorado de Podemos que se venía larvando desde hacía meses y sobre la que, seguramente, valdría la pena reflexionar.
La metedura de pata con Unidos Podemos ha sido memorable. La mayoría de los sondeos anticipaba el sorpasso, y, con él, la victoria del centro izquierda. La previsión se mantuvo estable durante la campaña y, para más inri, la fidelidad de los votantes de Podemos parecía medio-alta, similar a la del PP....
Autor >
Fray Poll
Suscríbete a CTXT
Orgullosas
de llegar tarde
a las últimas noticias
Gracias a tu suscripción podemos ejercer un periodismo público y en libertad.
¿Quieres suscribirte a CTXT por solo 6 euros al mes? Pulsa aquí