Cálculo Electoral presenta un agregador de encuestas y un modelo de pronóstico electoral para las elecciones de alcaldes de las tres principales ciudades de Ecuador. Los métodos que empleamos han sido aplicados exitosamente para estudiar encuestas difundidas durante las últimas elecciones en Ecuador, Chile y Colombia. Aquí describimos paso a paso de donde vienen los números que publicamos.


1. Agregador de Encuestas

La intención de voto de cada candidato (a la fecha de la última encuesta disponible) se lo obtiene siguiendo los siguientes cuatro pasos: recopilación de información, cálculo de ponderaciones para cada encuesta, homologación de resultados y estimación del promedio de intención de voto.

1.1. Recopilación de Información

Utilizamos la información divulgada en los portales digitales de las siguientes empresas: Cedatos, Click Research, Clima Social, Eureknow y Opinión Pública Ecuador.

Prestaremos particular atención a la metodología empleada por cada empresa encuestadora, el ámbito en el que habitualmente realizan encuestas (nacional, regional, municipal, urbana, rural, etc.) y la frecuencia con la que realizan estudios de opinión. En caso de que surgieran otras fuentes de información publicadas en medios de comunicación o portales institucionales de encuestadoras, dichas fuentes serán incorporadas al modelo siempre y cuando provengan de empresas habilitadas por el Consejo Nacional Electoral para publicar pronósticos electorales.

1.2. Cálculo de Ponderaciones

Para poder calcular un promedio ponderado, debemos primero asignar pesos a cada encuesta. Utilizamos una escala de 100 puntos para calificar a cada encuesta en base a los siguientes cuatro criterios:

  • - Técnica utilizada para entrevistar
  • - Ámbito (cobertura) en el universo de la muestra
  • - Capacidad para predecir los resultados del Referéndum y Consulta Popular Ecuador 2018
  • - Actualidad de la encuesta (número de días antes de las elecciones)

Los tres primeros criterios aportan equitativamente con 33.3 puntos, y están relacionados con la calificación de la encuestadora. El primer criterio otorga una calificación según la técnica utilizada para levantar las encuestas, de acuerdo a una categorización de las herramientas generalmente utilizadas: tarjetón simulado, entrevistas cara a cara, entrevistas telefónicas, o encuestas en redes sociales. En el segundo criterio, damos mayor ponderación a las encuestadoras cuyos datos publicados dan cuenta de levantamientos de muestra a nivel nacional, versus encuestadoras con coberturas regionales. Para el tercer criterio, calculamos el valor absoluto de las diferencias entre el último sondeo de cada encuestadora (excluyendo el exit poll) y el resultado electoral de cada pregunta del Referéndum y Consulta Popular de 2018. El complemento entre la suma de estas diferencias y 100% nos da una medida de la capacidad de predicción global para la elección en unidades de intención de voto. A la capacidad de predicción la normalizamos con respecto a 33.3, calificación que es obtenida por la empresa encuestadora con el menor error relativo medio.

El último criterio es utilizado para tomar en cuenta la proximidad temporal de cada encuesta al día de la elección. A la suma de los 3 primeros criterios le multiplicamos por una función exponencial que hace las veces de filtro temporal. La constante de tiempo de este filtro se la determina a partir de la evolución temporal del nivel de decisión que reportan algunas encuestadoras. Al parametrizar las curvas del nivel de decisión para cada ciudad, encontramos que las constantes de tiempo son de 12, 21, y 18 días para Quito, Guayaquil y Cuenca respectivamente. (Por ejemplo, si la constante temporal es de 30 días, una encuesta publicada el día de hoy tendría 2.7 veces más influencia que una publicada hace 30 días.)

1.3. Ajustes para Homologar Encuestas

Algunas encuestas no reportan la intención de voto de todos los candidatos, y por lo tanto, la suma de categorías no llega al 100%. En este caso, distribuimos a la fracción no asignada equitativamente entre los otros candidatos no mencionados (pero que constan en la papeleta), nulo y blanco. La mayoría de encuestas sí suman 100%, pero ajustes son necesarios porque no hay un estándar para tratar categorías como nulo, blanco, ninguno, no responde, no sabe y otros. Además, cada encuestadora tiene metodologías diferentes para aproximarse al votante indeciso. Para poder elaborar nuestros modelos y pronósticos, decidimos definir como 'indeterminados' al sub-conjunto que abarca a la mitad de la intención de nulos y blancos junto a categorías como ninguno, no responde o no sabe. En nuestro escenario metodológico, distribuimos a los indeterminados entre 4 grupos: los tres candidatos con más opciones reciben equitativamente 3/4 del total de indeterminados (1/4 cada uno), y el resto de candidatos el sobrante 1/4 (esto es, 1/(4*(N-3)) cada uno). Para el caso de Quito, hemos decidido asignarlos en 10 grupos: los 9 candidatos con más opciones y el resto de candidatos en un solo grupo. Una vez que los indeterminados han sido considerados, la suma de intenciones de voto de los N candidatos en disputa más la mitad de los nulos y blancos es de 100%, por lo que podemos considerar que la encuesta ha sido normalizada.

1.4. Promedios Ponderados

El estimado de la intención de voto es el resultado de un promedio con pesos de las encuestas seleccionadas. El promedio se lo realiza individualmente para cada candidato. El momento que conozcamos de algún nuevo sondeo, lo someteremos al procedimiento descrito en los pasos anteriores para poder actualizar el estimado de la intención de voto.


2. Pronósticos

Reportamos pronósticos con base en un análisis de cómo evolucionan las tendencias de cada candidato, y además, estudiamos las principales fuentes de incertidumbre para poder simular la elección miles de veces. Los resultados de estas simulaciones son catalogados de acuerdo a sus diferentes desenlaces, y al contar resultados de similar desenlace (por ejemplo, cuántas veces el candidato ganador supera el 50%), podemos estimar cuál es la probabilidad de que dichos desenlaces ocurran al final de la contienda electoral.

2.1. Cálculo y Ajuste de Tendencias

El modelo hace comparaciones entre diferentes ediciones de la misma encuestadora. Por ejemplo, si Yanhaas registra que uno de los candidatos tiene un 38% de intención de voto en el mes de enero y obtiene un 41% en una versión de la encuesta con similar metodología durante el mes de febrero, esto sugiere que dicho candidato ganó 3 puntos porcentuales. Si hay suficientes datos, realizamos estas comparaciones para cada candidato y encuestadora por separado. Luego, tomamos estas comparaciones y trazamos una línea de tendencia haciendo uso de una regresión local. Estas tendencias por encuestadora nos ayudan a decidir cómo calcular tendencias globales conforme aparecen nuevos puntos para ser agregados. Cuando esta información no está disponible, hacemos una regresión local directamente sobre los puntos que aparecen en el agregador de encuestas (independientemente de la encuestadora). Procuramos utilizar funciones con pocos parámetros y de bajo orden, para evitar efectos no lineales en extrapolaciones. Nos aseguramos de que el sumatorio de cada punto (en el tiempo) de las líneas de tendencia sume 100%, y que sea posible para cada candidato ganar o perder votos.

Nuestra metodología fue puesta a prueba durante las elecciones presidenciales Ecuador 2017: tanto en la primera vuelta, como en el balotaje. Estos resultados demostraron que el tratamiento que dimos a los datos para homologarlos fue adecuado. Los pronósticos de Cálculo Electoral fueron los que más se acercaron a los resultados de dichas elecciones. También participamos con éxito en las recientes elecciones presidenciales Chile 2017 y Colombia 2018.

2.2. Estimación de la Incertidumbre

El promedio proyectado de intención de voto para cada candidato se lo obtiene a partir de variables que tienen sus propios errores probabilísticos y/o sistemáticos. Estas variables son: 1) la intención de voto por candidato difundida por encuestadoras, y 2) la fracción de indeterminados asignada a cada candidato. Para poder estimar la incertidumbre total, utilizamos el modelo simplificado de propagación de errores para funciones no-lineales (en donde se asume variables independientes). Las incertidumbres en el nivel de decisión y en las intenciones de voto son proporcionales a la discrepancia que existe entre los datos publicados por las diferentes encuestadoras. La incertidumbre en la segunda variable es proporcional a la fracción asignada a cada candidato.

2.3. Generación de Trayectorias

Una vez que tenemos la proyección de la intención de voto (al día de las elecciones) y un estimado de la incertidumbre para cada candidato, podemos simular la elección miles de veces. Al resultado de cada una de estas simulaciones la llamamos trayectoria. Cada una de estas trayectorias es generada a partir de una distribución de probabilidad beta, cuyos parámetros alfa y beta son calculados en base al promedio proyectado y a la incertidumbre asignada a cada candidato*.

2.4. Cálculo de Probabilidades

Las probabilidades que publicamos son obtenidas al contar el número de trayectorias de similares desenlaces y dividiéndolas para el total de trayectorias generadas (N = 50000).


Errores y Omisiones

Intentamos evitar manipular el modelo una vez que se publica, pero siempre estamos atentos a errores. Si hay cambios significativos en el modelo, los divulgaremos aquí.



* Consideraremos en un futuro utilizar distribuciones t, ya que teóricamente son más apropiadas cuando las muestras son pequeñas. Además, estas tienen colas más largas que una distribución normal, o una beta (particularmente las distribuciones t con pocos grados de libertad). En este momento es difícil decidir el número de grados de libertad que se debe emplear, ya que no tenemos suficientes datos para saber como se comporta la cola de la distribución. Por ejemplo, ¿cuál es la probabilidad de que un candidato que va perdiendo por 20 puntos en las encuestas termine ganando la elección? La respuesta podría cambiar por varios ordenes de magnitud (1, 0.1 ó 0.01% chances de ganar) dependiendo de cuantos grados de libertad se utilicen en la distribución t. Una distribución t bien parametrizada ayudaría a modelar de mejor manera estos casos extremos.