🤖 Atiendia
Evidence-based validation

Validación de Novedad
El Sistema No Alucina

Generar ideas es fácil. Determinar si son nuevas y valiosas es el verdadero desafío. El sistema incluye un módulo de auditoría automatizada que actúa como un "Revisor de Pares" preliminar.

⚠️

El Problema de las "Ideas Novedosas"

Los sistemas de IA generativa pueden producir hipótesis que suenan plausibles pero que en realidad ya han sido exploradas en la literatura. Sin validación externa, se corre el riesgo de:

  • × Reinventar la rueda: Gastar recursos en investigación ya realizada
  • × Falsas novedades: Presentar como original algo que ya existe
  • × Pérdida de tiempo: Investigadores siguiendo pistas que ya tienen respuesta

La Solución: Truth-Checking con Bases de Datos Globales

Cada idea se valida contra la literatura científica mundial en tiempo real

📚

Semantic Scholar

AI2 (Allen Institute)

200M+ papers indexados
Grafo de citas completo (quién cita a quién)
API semántica: búsqueda por conceptos, no solo keywords
TL;DR automático generado por IA
Cobertura multidisciplinaria (CS, medicina, física, etc.)
🌍

OpenAlex

OurResearch (ex Microsoft Academic)

250M+ works catalogados
100% Open Access (API gratuita y completa)
Cobertura global: papers en todos los idiomas
Metadatos ricos: autores, instituciones, conceptos
Actualización continua (nuevos papers diariamente)
🔍 Más de 400 millones de papers consultados automáticamente

Proceso de Validación Evidence-Based

Tres pasos para cada idea generada

1

🔍 Recuperación de Evidencia

El sistema construye queries semánticas a partir de la idea propuesta y busca activamente en Semantic Scholar y OpenAlex papers que ya hayan explorado esa combinación específica de conceptos.

Ejemplo de query:

"transfer learning computer vision natural language processing cross-domain application"

2

🤖 Juicio Automático

Un modelo evaluador especializado (LLM con prompt de revisión) analiza:

  • La idea propuesta vs los abstracts/conclusiones de los papers encontrados
  • Si la similitud es superficial (keywords) o sustancial (misma hipótesis)
  • Matices que podrían diferenciar la nueva idea de las existentes
3

📊 Clasificación de Estado

Basándose en la evidencia recuperada, la idea se clasifica en uno de tres estados:

Estados de Validación de Novedad

Clasificación automática del nivel de novedad basada en evidencia científica

🟢

NOVEL_BRIDGE

Genuinamente Nuevo

No se recuperó evidencia significativa que conecte los conceptos clave de la idea propuesta. Es una brecha de investigación genuina con alta probabilidad de ser inédita.

Métricas:

  • novelty_score > 0.8
  • • Búsqueda exhaustiva sin resultados relevantes
  • • Oportunidad "Blue Ocean"

🚀 Acción recomendada:

Prioridad alta para investigación
✓ Proceder con desarrollo de hipótesis formal
✓ Diseñar experimentos preliminares
✓ Asegurar recursos y financiamiento

🟡

EMERGING_LINK

Tendencia Reciente

Existen papers muy recientes (últimos 2-3 años) que empiezan a explorar esta conexión. El tema está en crecimiento activo.

Criterios de validación:

  • • Referencias con fecha ≥ 2019/2020+
  • • Literatura emergente pero no consolidada
  • • Oportunidad de "Hot Topic"

⚡ Acción recomendada:

Competencia emergente detectada
✓ Revisar papers recientes identificados
✓ Identificar el "ángulo diferenciador"
✓ Actuar rápido antes de saturación del tema

🔴

KNOWN_LINK

Consolidado

La conexión está bien establecida en la literatura anterior. El sistema proporciona referencias existentes (prior_art_refs) para consulta.

Métricas:

  • knownness_score > 0.75
  • • Literatura consolidada pre-existente
  • • Marcada como redundante

🔄 Acción recomendada:

× Descartar o pivotar la idea original
✓ Leer los papers existentes (aprendizaje)
✓ Buscar un ángulo completamente no explorado
✓ Considerar extensiones o variaciones novedosas

UNCERTAIN

Ambiguo

Evidencia insuficiente o contradictoria. El evaluador LLM no pudo determinar con confianza si la idea es nueva o existente.

Causas posibles:

  • • Conceptos en áreas interdisciplinarias emergentes
  • • Terminología ambigua o variable
  • • Cobertura limitada en bases de datos

🔍 Acción recomendada:

Requiere ojo humano experto
⚠ Revisar evidencia recuperada manualmente
⚠ Consultar con experto del dominio
⚠ Refinar la formulación de la idea y re-validar

Decisiones del Juez Externo

Modelo evaluador especializado (ej. GPT-4o mini) que analiza abstracts

NOVEL

Veredicto del Juez

La combinación específica de conceptos no aparece en la evidencia recuperada. Los abstracts analizados no muestran interacción directa entre las ideas propuestas.

📚

KNOWN

Veredicto del Juez

Los conceptos aparecen interactuando directamente en la evidencia. Múltiples papers demuestran que la conexión ya ha sido explorada o implementada.

🌱

EMERGING

Veredicto del Juez

La interacción aparece solo en literatura reciente. El tema es joven y está en fase de exploración activa por la comunidad científica.

Métricas de Scoring

N

novelty_score

Rango: 0.0 - 1.0

Probabilidad estimada de que la idea sea inédita. Calculada a partir de:

  • Ausencia de papers con alta similitud semántica
  • Veredicto del juez externo (peso alto)
  • Cantidad y calidad de evidencia recuperada

Umbral típico: novelty_score > 0.8 → clasificación NOVEL_BRIDGE

K

knownness_score

Rango: 0.0 - 1.0

Grado de certeza de que la idea ya existe en la literatura. Inverso conceptual a novelty_score.

  • Presencia de múltiples papers altamente relevantes
  • Citas cruzadas entre papers recuperados
  • Antigüedad de las publicaciones relacionadas

Umbral típico: knownness_score > 0.75 → clasificación KNOWN_LINK

📋

Requisitos de Evidencia

Cada clasificación debe estar respaldada por evidencia para garantizar la confiabilidad del sistema:

Mínimo de referencias

min_evidence_refs = 2 (default)

Se requieren al menos 2 documentos recuperados para hacer una clasificación confiable.

Fuentes de verdad

• OpenAlex (250M+ works)
• Semantic Scholar (200M+ papers)
• Consulta en tiempo real

Valor Cuantificable

El impacto real de la validación automática

~70%

De ideas generadas por IA sin validación son redundantes o existentes

10-20x

Más rápido que una revisión bibliográfica manual exhaustiva

$$$

Ahorro en recursos de investigación evitando duplicación de esfuerzos

Detalles Técnicos

Cómo funciona bajo el capó

🔍

Query Generation

A partir de la idea propuesta, el sistema genera múltiples queries optimizadas:

  • Query principal: Conceptos clave de la idea
  • Queries alternativas: Sinónimos y paráfrasis
  • Expansión semántica: Conceptos relacionados
📊

Scoring & Ranking

Los papers recuperados se rankean por relevancia y se analiza el top-K:

  • Similitud semántica: Embeddings de idea vs abstract
  • Citation count: Peso por impacto del paper
  • Recency: Papers más recientes tienen mayor peso
🤖

LLM Evaluator

Modelo especializado en revisión crítica de ideas:

  • Chain-of-Thought: Razonamiento explícito paso a paso
  • Few-shot examples: Ejemplos de evaluación curados
  • Structured output: JSON con estado + rationale
📝

Output Enrichment

Cada resultado incluye metadatos accionables:

  • Estado: NOVEL_BRIDGE / EMERGING_LINK / KNOWN_LINK / UNCERTAIN
  • Confidence score: 0-1 nivel de certeza
  • Referencias: Links directos a papers relacionados

Valide la Novedad de Sus Ideas Antes de Invertir Recursos

No deje que meses de investigación terminen en un "esto ya se hizo en 2019". Valide automáticamente antes de comenzar.