Skip to main content

¿Qué es un Modelo de Análisis?

Un modelo de análisis define los criterios y estructura de evaluación para las llamadas. Es la “receta” que Neuracall sigue para generar el NeuraScore.

Componentes de un Modelo

Un modelo se compone de tres elementos principales:

Arquitectura de Componentes

El siguiente diagrama muestra cómo se relacionan los componentes de un modelo de análisis:
Las Variables pertenecen a Categorías, y juntas determinan la puntuación. La Metadata es independiente y se usa para segmentar y filtrar análisis en dashboards.

Información Básica

CampoDescripciónEjemplo
nameNombre único del modelo”Evaluación Ventas B2B”
descriptionPropósito del modelo”Evaluación de llamadas comerciales…“
promptInstrucciones para el análisisConfiguración de IA

Categorías

Las categorías agrupan criterios relacionados:
{
  "categories": [
    {
      "name": "Apertura",
      "description": "Evaluación del inicio de la llamada",
      "order_number": 1
    },
    {
      "name": "Desarrollo",
      "description": "Cuerpo de la interacción",
      "order_number": 2
    },
    {
      "name": "Cierre",
      "description": "Finalización de la llamada",
      "order_number": 3
    }
  ]
}
Para más detalles sobre cómo estructurar categorías, consulta la guía de Categorías de Modelo.

Variables

Cada categoría contiene variables específicas:
{
  "variables": [
    {
      "key": "greeting_quality",
      "readable_name": "Calidad del Saludo",
      "description": "Evalúa si el agente saluda de forma cordial y profesional",
      "type": "INTEGER",
      "weight": 10,
      "category_id": 1,
      "required": true
    }
  ]
}
Para más detalles sobre tipos de variables y distribución de pesos, consulta la guía de Variables de Modelo.

Tipos de Variables

TipoUsoEjemplo
INTEGERPuntuación numéricaScore 0-10
DECIMALPuntuación con decimalesScore 8.5
BOOLEANSí/No”¿Mencionó el nombre del cliente?”
STRINGTexto libreComentario u observación
DATEFechaFecha mencionada
TIMEHoraHora de cita
DATETIMEFecha y horaTimestamp completo

Diseño de un Modelo Efectivo

1. Define el Objetivo

Pregúntate: ¿Qué quiero medir? ¿Qué comportamientos son críticos?

2. Estructura las Categorías

Agrupa lógicamente los criterios:
Tipo de LlamadaCategorías Sugeridas
Servicio al clienteApertura, Resolución, Cierre
VentasDescubrimiento, Presentación, Manejo de objeciones, Cierre
Soporte técnicoDiagnóstico, Solución, Verificación
CobranzaIdentificación, Negociación, Acuerdos

3. Define Variables Específicas

Buenos ejemplos:
  • “Mencionó el nombre del cliente” (observable, específico)
  • “Ofreció alternativas de solución” (medible)
  • “Confirmó los próximos pasos” (verificable)
Malos ejemplos:
  • “Fue amable” (subjetivo, vago)
  • “Hizo bien su trabajo” (no específico)

4. Asigna Pesos

Distribuye los puntos según importancia:
Total: 100 puntos
Apertura: 20 puntos (20%)
Desarrollo: 50 puntos (50%)
Cierre: 30 puntos (30%)

Metadatos Adicionales

Los modelos pueden incluir campos de metadatos para capturar información contextual:
{
  "template_metadata": [
    {
      "key": "campaign",
      "readable_name": "Campaña",
      "type": "STRING",
      "grouping_field": true
    },
    {
      "key": "department",
      "readable_name": "Departamento",
      "type": "STRING",
      "grouping_field": true
    }
  ]
}
Para más detalles sobre campos de agrupación y su uso en dashboards, consulta la guía de Metadata de Modelo.

Gestión vía API

Crear Modelo

POST /v1/models
{
  "name": "Mi Modelo",
  "description": "Descripción...",
  "prompt": "...",
  "template_variables": [...]
}

Actualizar Modelo

PUT /v1/models/{id}
{
  "name": "Mi Modelo Actualizado",
  ...
}
Los cambios en un modelo no afectan los análisis ya completados.

Mejores Prácticas

Iteración

  1. Comienza con un modelo simple
  2. Analiza una muestra de llamadas
  3. Ajusta según resultados
  4. Repite

Validación

  • Compara scores automáticos vs evaluaciones manuales
  • Ajusta si hay discrepancias significativas
  • Documenta los criterios para consistencia

Mantenimiento

  • Revisa periódicamente la relevancia de los criterios
  • Elimina variables que siempre dan el mismo resultado
  • Agrega criterios según evolucionen los estándares

Recursos Relacionados