Evitar alucinaciones IA
Evitar alucinaciones IA

Para minimizar las alucinaciones (datos inventados pero verosímiles) y asegurar la precisión, te recomiendo empezar por estas prácticas clave:

Instrucción de «No asumir»: Añade explícitamente en tu prompt la frase: «No asumas datos; si te falta información, formula las preguntas necesarias antes de responder». Incluso te recomiendo que le pides que se tome su tiempo para analizar la fuente y su fiabilidad.

Limitar el alcance (Grounding): Ordena a la IA que se base únicamente en los documentos o datos proporcionados (técnica RAG), ignorando su conocimiento general externo para esa tarea.

Solicitar Evidencias: Pide que la respuesta incluya referencias exactas, citas o la página del documento de donde ha extraído la información.

Ajustar la Temperatura: Si utilizas modelos configurables (como en LM Studio o la API), baja la temperatura (cercana al 0% o 0.2) para que el modelo sea más determinista y menos «creativo»

Te dejo un prompt sencillo que te ayudará a minimizar alucinaciones en tus próximas búsquedas:

• Rol: Actúa como un consultor experto y riguroso en [TU TEMA].
• Contexto: Necesito [TU OBJETIVO, ej: un resumen, un análisis, una respuesta técnica] para [AUDIENCIA].
• Instrucciones de Seguridad (Críticas):
    1. Cero invención: Basa tu respuesta exclusivamente en los datos que te proporcione (o en hechos probados). Si no conoces la respuesta o falta información, responde textualmente: "No tengo datos suficientes para responder". No intentes rellenar huecos.
    2. Citas: Justifica cada afirmación indicando de dónde sale la información o el razonamiento.
    3. Protocolo de preguntas: Antes de generar la respuesta final, formúlame las preguntas necesarias para asegurar que no estás asumiendo premisas falsas.

por admin

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *