Reino Unido prueba IA para prevenir la delincuencia juvenil – EXTRA – El informante

El gobierno británico está investigando el uso de inteligencia artificial para identificar a niños y jóvenes en riesgo de cometer un delito antes de que cometan un delito. El objetivo de la iniciativa es analizar datos sanitarios, educativos y sociales con el objetivo de intervenir precozmente y ofrecer apoyo preventivo.

El proyecto, financiado por el Ministerio de Justicia, ha suscitado un intenso debate público por sus implicaciones éticas, jurídicas y sociales.

¿Cómo funcionaría el sistema?

El modelo de inteligencia artificial cruzaría información de varias bases de datos públicas. Estos incluyen registros del Servicio Nacional de Salud (NHS), registros escolares, informes de servicios sociales y posibles contactos previos con las autoridades.

Utilizando estos datos, el sistema identificaría patrones asociados a factores de vulnerabilidad como el ausentismo escolar, entornos familiares complejos o antecedentes de exclusión social. Según sus defensores, no se trata de castigar, sino de identificar señales de advertencia para activar las redes de apoyo institucional antes de que se produzca una conducta delictiva.

En otras palabras, el gobierno propone una estrategia de prevención basada en datos.

Prevención o seguimiento temprano

Sin embargo, la propuesta ha sido comparada con la película Minority Report, en la que las autoridades arrestan a personas antes de que cometan delitos. Aunque las autoridades británicas rechazan esta analogía y aseguran que el sistema no sería punitivo, la comparación ha aumentado la polémica.

Las organizaciones de derechos civiles advierten que etiquetar a un menor como “delincuente potencial” podría provocar una estigmatización temprana. Además, señalan que los algoritmos no predicen delitos de forma fiable, sino que determinan relaciones estadísticas basadas en datos históricos.

Esto plantea una pregunta central: ¿hasta qué punto está justificado predecir el comportamiento futuro de un niño basándose en variables sociales?

Riesgos éticos y sesgos algorítmicos

Otro punto crítico es la posible distorsión de los datos. Si el sistema se alimenta de información histórica donde ya existen desigualdades estructurales –como una mayor vigilancia en ciertos barrios o comunidades– la inteligencia artificial podría reproducir y amplificar estas disparidades.

Los expertos en tecnología y derechos digitales enfatizan que proteger los datos sensibles, especialmente los de menores, debe ser una prioridad. La combinación de registros médicos, educativos y sociales requiere altos estándares de seguridad y transparencia.

Además, la falta de claridad sobre cómo se interpretan los resultados del algoritmo genera preocupaciones sobre posibles errores de clasificación.

Un debate abierto sobre el futuro de la IA pública

El uso de inteligencia artificial en políticas públicas no es nuevo, pero su aplicación en la predicción de conductas delictivas en la infancia marca un punto sensible. Si bien el gobierno defiende la prevención temprana como herramienta de apoyo social, los críticos insisten en que la tecnología no puede reemplazar la intervención humana contextualizada.

El debate en el Reino Unido podría sentar un precedente global sobre los límites éticos de la inteligencia artificial en la gestión de datos ciudadanos.

116

Compartir :