ChatGPT, Gemini, clonadores de voz, generadores de imagen. Son poderosas, gratuitas y están en el teléfono de tus alumnos ahora mismo. Esta guía explica qué riesgos reales implican y cómo usarlas sin comprometer tu privacidad o la de otros.
Capa 4 del Modelo Aegis8 — Los ataques de nueva generación usan IA para ser más convincentes.
En Chile, los casos de vishing con voz clonada por IA aumentaron un 89% en 2024. Los deepfakes íntimos son delito bajo la Ley 21.459 — independiente de que sean generados por IA.
// Qué es y cómo funciona
No es magia. Es estadística.
La IA generativa no piensa — predice. Aprende patrones de millones de textos, imágenes o voces, y genera nuevo contenido que sigue esos patrones. Entender esto cambia cómo evalúas lo que produce.
// Deepfakes — cómo detectarlos
Parece real. No lo es.
Un deepfake es contenido generado o manipulado por IA para hacer parecer que alguien hizo o dijo algo que nunca ocurrió. Solo se necesita una foto pública para crear uno.
Señales en videos
👁️
Parpadeo irregular o ausente
En deepfakes de menor calidad el parpadeo no es natural.
💋
Labios que no sincronizan
El movimiento de labios a veces no coincide exactamente con las palabras.
🔦
Iluminación inconsistente
El rostro generado puede tener sombras que no corresponden al fondo.
👂
Bordes del cabello borrosos
Las IAs tienen más dificultad con bordes complejos como cabello rizado.
🔍
Busca el original
Antes de creer un video comprometedor, busca cobertura en fuentes confiables.
Señales en audio y texto
🎙️
Voz sin pausas naturales
Las voces clonadas por IA a menudo carecen de micro-pausas y respiraciones naturales.
📝
Texto demasiado perfecto
Sin errores ortográficos, estructura perfecta. Los emails de phishing ya no cometen errores.
⚡
Urgencia inusual
La IA genera el texto, la urgencia la pone el atacante.
📞
Verifica por otro canal
Llama al número que ya tienes guardado — no al que aparece en el mensaje.
🛠️
Herramientas de detección
Hive Moderation, AI or Not, Illuminarty — gratuitas para uso básico.
Email real de banco vs phishing generado por IA
✓ Email legítimo
Usa tu nombre real tal como está registrado
No pide claves ni tokens por email
Dominio exacto del banco (bancochile.cl)
No genera urgencia artificial
✗ Phishing con IA
Puede usar tu nombre (obtenido de filtraciones)
Pide verificar datos o hacer clic urgente
Dominio alterado: bancochile-cl.com
Urgencia extrema: "bloqueada en 2 horas"
// Ataques potenciados por IA
Mismos ataques. Mucho más convincentes.
La IA no inventa nuevos tipos de ataques — hace que los existentes sean más difíciles de detectar. Un phishing sin errores, una llamada con la voz de tu banco, un video que nunca existió.
Riesgo alto · Chile 2026
Vishing con voz clonada
Phishing por llamada usando voz sintética de alguien conocido
Con 3 segundos de audio público, una IA puede clonar cualquier voz. El atacante llama a familiares haciéndose pasar por esa persona en emergencia — "mamá, tuve un accidente, necesito que transfieras plata ahora".
Caso real adaptado: Familia chilena recibió llamada de "su hijo" pidiendo transferencia urgente de $200.000. La voz era idéntica. El hijo estaba bien.
Establece una "palabra de seguridad" familiar que solo ustedes sepan. Sin esa palabra, cuelga y llama al número que ya tienes guardado.
Riesgo alto · Chile 2026
Deepfakes íntimos
Imágenes sexuales falsas generadas con el rostro de una persona real
Solo se necesita una foto pública. Se usan para acosar, extorsionar o dañar la reputación. Afectan desproporcionadamente a mujeres y adolescentes.
Marco legal: La Ley 21.459 tipifica explícitamente la creación y difusión de deepfakes íntimos como delito, aunque el contenido sea 100% generado por IA.
Denuncia en PDI Cibercrimen: +56 2 2708 0000. Usa StopNCII.org — registra un hash que bloquea la imagen en Meta, TikTok y otras plataformas sin que nadie vea el contenido.
Riesgo alto · Aulas Chile
Phishing sin errores
Emails generados por IA que imitan perfectamente a empresas reales
Hasta 2023, los errores ortográficos eran el indicador más confiable de phishing. La IA elimina esa señal. Hoy, un email de phishing puede ser gramaticalmente impecable y personalizado con tu nombre.
La nueva regla: La ausencia de errores ya no es señal de legitimidad. El indicador que queda: la urgencia, el dominio del remitente y qué te pide.
Verifica el dominio del remitente carácter por carácter. Tu banco nunca pedirá tu clave por email. Ante urgencia extrema, llama al número oficial.
// Qué le das a la IA cuando la usas
Gratis no significa sin costo.
El costo de los servicios de IA gratuitos son tus datos. No es malo usarlos — es importante entender qué intercambias.
🚫
NUNCA INGRESES
Contraseñas · Números de tarjeta · RUT · Datos médicos propios o ajenos · Información de menores · Documentos confidenciales del trabajo · Datos de alumnos o pacientes
⚠️
ANONIMIZA ANTES
Nombres de personas en situaciones sensibles · Nombre del empleador en conflictos · Ubicaciones exactas · Información de terceros sin su consentimiento
✓
USO SIN RIESGO SIGNIFICATIVO
Tareas académicas sin datos personales · Preguntas generales de aprendizaje · Redacción creativa genérica · Análisis de texto público · Código sin datos sensibles
⚙️
CONFIGURACIÓN QUE DEBES ACTIVAR
ChatGPT: Configuración → Control de datos → desactivar "Mejorar el modelo" · Gemini: Actividad de Gemini → pausar guardado · Claude: sin historial persistente por defecto
// Herramientas para detectar contenido generado
La IA también detecta IA.
Estas herramientas gratuitas ayudan a verificar si un contenido fue generado por IA. No son infalibles — úsalas junto con pensamiento crítico.
Hay robots que pueden escribir cuentos y dibujos. Son herramientas, como una calculadora. No son personas y a veces se equivocan.
La regla más importante
No le cuentes secretos
No escribas tu nombre completo, dónde vives ni datos de tu familia en un chat de IA.
La IA se equivoca
Siempre verifica
A veces inventa cosas que suenan reales pero son falsas. Siempre pregúntale a un adulto.
Usas IA probablemente todos los días. El riesgo no está en usarla — está en no saber qué le das cuando la usas.
Privacidad
Qué no poner en ChatGPT
Nunca: conversaciones privadas de terceros, contraseñas, datos de salud, documentos del colegio con nombres de compañeros.
Imágenes generadas
Generar imágenes de personas reales
Generar imágenes comprometedoras de compañeros es acoso. Si hay contenido íntimo, es delito bajo la Ley 21.459.
Configuración
Desactiva el entrenamiento
ChatGPT: Configuración → Control de datos → desactivar "Mejorar el modelo". Tarda 30 segundos.
Tareas
No es trampa usarla. Es trampa mentir.
Usar IA para entender un concepto está bien. Presentar el output como tu trabajo sin decirlo no lo está.
Tus hijos están usando IA. La pregunta no es si usarla, sino cómo hablar de ella.
Conversación en familia
Tres preguntas para esta semana
"¿Qué IAs usas?" / "¿Le pusiste tu nombre real alguna vez?" / "¿Sabes que a veces inventa cosas reales pero falsas?" Sin juicio.
Vishing
La palabra de seguridad familiar
El vishing con voz clonada ya está en Chile. Establezcan una palabra secreta. Sin esa palabra en una llamada de emergencia: cuelga y llama al número guardado.
Tus alumnos usan IA para tareas, tú la usas para preparar clases. El desafío no es prohibir — es enseñar a usarla con criterio.
Tu propio uso
Lo que no debes subir
Nunca ingreses nóminas de alumnos, situaciones de convivencia con nombres reales, o datos del SIGE en ChatGPT. Viola la privacidad de los estudiantes.
Detección
GPTZero no es infalible
Los detectores tienen falsos positivos. Evaluación oral y pedir borradores siguen siendo las mejores herramientas.
// Marco legal Chile
Lo que dice la ley.
Chile tiene legislación que cubre la mayoría de los delitos relacionados con IA generativa — aunque las leyes no mencionen explícitamente la IA.
Ley 21.459 Art. 4 · 2022
Deepfakes íntimos — delito explícito
Penaliza la difusión de imágenes íntimas sin consentimiento, incluyendo material "generado o manipulado artificialmente". Pena: hasta 3 años.
Generar y compartir un deepfake íntimo de un compañero es delito, aunque el contenido sea 100% falso.
Ley 21.459 Art. 2 · 2022
Acceso ilegal vía phishing con IA
Cuando el phishing potenciado por IA resulta en acceso a cuentas sin autorización. Pena: hasta 3 años.
Usar un email de phishing generado por IA para obtener credenciales es delito bajo este artículo.
Ley 20.526 2011
Grooming asistido por IA
Penaliza los actos de un adulto que a través de medios digitales contacta a un menor con fines sexuales. El uso de IA para facilitar la conversación no cambia el tipo penal.
Un adulto que usa ChatGPT para generar respuestas en una conversación de grooming comete el mismo delito.
Ley 19.628 1999
Filtración de datos personales
Ingresar datos de terceros en IAs públicas sin su consentimiento puede constituir infracción a la protección de datos, especialmente si son datos sensibles de menores.
Un docente que sube datos de alumnos a ChatGPT sin consentimiento puede incurrir en infracción.
// Señales de alerta
Si notas esto, para y verifica.
⚑
Urgencia extrema en cualquier canal
La urgencia es la herramienta del atacante. En el mundo real, pocas cosas requieren actuar en 2 horas sin verificar.
⚑
Voz familiar pidiendo dinero o datos
La IA puede clonar voces con 3 segundos de audio. Cuelga y llama al número que ya tienes guardado.
⚑
Email perfecto sin errores
La ausencia de errores ya no es señal de legitimidad. Verifica el dominio del remitente carácter por carácter.
⚑
Imagen o video impactante sin fuente
Los deepfakes circulan antes de ser desmentidos. Busca cobertura en dos fuentes independientes antes de compartir.
⚑
Alguien online siempre perfecto
Responde siempre rápido, nunca tiene un mal día, siempre dice exactamente lo correcto. Puede ser IA asistiendo manipulación.
⚑
IA gratis que pide credenciales
Servicios de "IA gratis ilimitada" que piden tu contraseña de otro servicio. Los servicios legítimos no necesitan tus credenciales de otros servicios.
Capa 4 del Modelo Aegis8
Entender la amenaza es la mitad de la defensa.
La otra mitad está en las herramientas y los hábitos.