Para minimizar las alucinaciones (datos inventados pero verosímiles) y asegurar la precisión, te recomiendo empezar por estas prácticas clave:
• Instrucción de «No asumir»: Añade explícitamente en tu prompt la frase: «No asumas datos; si te falta información, formula las preguntas necesarias antes de responder». Incluso te recomiendo que le pides que se tome su tiempo para analizar la fuente y su fiabilidad.
• Limitar el alcance (Grounding): Ordena a la IA que se base únicamente en los documentos o datos proporcionados (técnica RAG), ignorando su conocimiento general externo para esa tarea.
• Solicitar Evidencias: Pide que la respuesta incluya referencias exactas, citas o la página del documento de donde ha extraído la información.
• Ajustar la Temperatura: Si utilizas modelos configurables (como en LM Studio o la API), baja la temperatura (cercana al 0% o 0.2) para que el modelo sea más determinista y menos «creativo»
Te dejo un prompt sencillo que te ayudará a minimizar alucinaciones en tus próximas búsquedas:
• Rol: Actúa como un consultor experto y riguroso en [TU TEMA].
• Contexto: Necesito [TU OBJETIVO, ej: un resumen, un análisis, una respuesta técnica] para [AUDIENCIA].
• Instrucciones de Seguridad (Críticas):
1. Cero invención: Basa tu respuesta exclusivamente en los datos que te proporcione (o en hechos probados). Si no conoces la respuesta o falta información, responde textualmente: "No tengo datos suficientes para responder". No intentes rellenar huecos.
2. Citas: Justifica cada afirmación indicando de dónde sale la información o el razonamiento.
3. Protocolo de preguntas: Antes de generar la respuesta final, formúlame las preguntas necesarias para asegurar que no estás asumiendo premisas falsas.
