¿Pueden los algoritmos digitales ayudar a proteger a niños como Gabriel Fernandez del abuso?

Cada año, aproximadamente 7 millones de niños son denunciados a las autoridades de bienestar infantil por posible abuso, pero ¿cómo determinan las autoridades si a los niños les gusta? Gabriel Fernandez ¿Están en grave peligro y necesitan una intervención?





Muchas autoridades de bienestar infantil confían en las evaluaciones de riesgo realizadas por personal capacitado para controlar las líneas telefónicas en las que se denuncia una sospecha de abuso, pero algunos creen que puede haber una mejor manera.

'Hay una gran cantidad de literatura que hemos visto que sugiere que los humanos no son bolas de cristal particularmente buenas', Emily Putnam-Hornstein, directora de la Red de datos para niños y profesor asociado en la USC, dijo en la nueva serie documental de Neflix 'Los juicios de Gabriel Fernández'. 'En cambio, lo que estamos diciendo es que entrenemos un algoritmo para identificar cuál de esos niños encaja en un perfil en el que el riesgo de arco largo sugeriría una futura participación del sistema'.





Fernández era un niño de 8 años golpeado y torturado hasta la muerte por su mamá y ella novio , a pesar de las repetidas llamadas de su maestro y otras personas a las autoridades que informan sobre sospechas de abuso. La nueva serie de seis partes examina la vida y la espantosa muerte de Fernández, pero también da una mirada más amplia a problemas sistémicos dentro del sistema de bienestar infantil que podría haber jugado un papel.



Putnam-Hornstein sostiene que una estrategia para identificar de manera más eficaz a los niños que corren el mayor riesgo podría ser el uso de algoritmos especialmente creados que utilizan registros administrativos y minería de datos para determinar las puntuaciones de riesgo de cada niño.



'De hecho, tenemos alrededor de 6 o 7 millones de niños que son denunciados por presunto abuso o negligencia cada año en los EE. UU. E históricamente, la forma en que hemos tomado algunas de nuestras decisiones de detección se basa simplemente en una especie de evaluaciones instintivas', dijo. 'El modelado de riesgo predictivo es simplemente decir: 'No, no, no, adoptemos un enfoque más sistemático y empírico para esto''.

Putnam-Hornstein y Rhema Vaithianathan, codirector de la Centro de análisis de datos sociales , pudieron poner la idea en práctica en el condado de Allegheny, Pensilvania. La pareja utilizó miles de referencias de maltrato infantil para diseñar un algoritmo que determinaría un puntaje de riesgo para cada familia reportada a los servicios de protección infantil del condado, según el Centro de Periodismo de Salud .



'Hay un centenar de factores diferentes que se analizan', explicó Marc Cherna, director del Departamento de Servicios Humanos del condado de Allegheny, en la serie documental. 'Algunos ejemplos básicos son el historial de bienestar infantil, el historial de los padres, ciertamente el uso de drogas y la adicción, las enfermedades mentales familiares, la cárcel y las condenas, y especialmente si hay agresiones y cosas así'.

Debido al gran volumen de llamadas, las autoridades de bienestar infantil de todo el país tienen la tarea de determinar si una familia debe ser examinada para una investigación basada en la denuncia o excluida.

En 2015, el 42% de los 4 millones de denuncias recibidas en todo el país que involucraban a 7,2 millones de niños fueron descartados, según Los New York Times .

Sin embargo, los niños continúan muriendo a causa del abuso infantil.

El sistema que se utiliza en el condado de Allegheny está diseñado para predecir con mayor precisión qué familias probablemente participarán en el sistema en el futuro a través del análisis de datos.

'Lo que tienen los evaluadores es una gran cantidad de datos', dijo Vaithianathan a The Times. “Pero es bastante difícil navegar y saber qué factores son los más importantes. En una sola llamada a C.Y.F. , es posible que tenga dos hijos, un presunto perpetrador, tendrá una mamá, puede que tenga otro adulto en el hogar; todas estas personas tendrán antecedentes en el sistema que la persona que filtra la llamada puede investigar. Pero el cerebro humano no es tan hábil para aprovechar y dar sentido a todos los datos '.

La herramienta de evaluación de la familia Allegheny utiliza una técnica estadística llamada 'minería de datos' para observar patrones históricos y 'tratar de hacer una predicción sobre lo que podría suceder' en cualquier caso, dijo en la serie documental.

A cada caso se le asigna una puntuación de riesgo que va de uno a 20, clasificando cada caso como de alto riesgo, riesgo medio o riesgo bajo.

Rachel Berger, pediatra del Children's Hospital of Pittsburgh, le dijo a The Times en 2018 que lo que hace que el análisis predictivo sea valioso es que elimina parte de la subjetividad que normalmente entra en el proceso.

12 días oscuros de asesinos en serie con oxígeno

'Todos estos niños viven en el caos', dijo. “¿Cómo C.Y.F. seleccionar cuáles están más en peligro cuando todos tienen factores de riesgo? No puedes creer la cantidad de subjetividad que entra en las decisiones de protección infantil. Por eso me encanta el análisis predictivo. Finalmente, está aportando algo de objetividad y ciencia a las decisiones que pueden cambiar la vida de manera increíble '.

Pero también ha habido críticos que argumentan que el uso de análisis predictivo se basa en datos que ya pueden estar sesgados. Investigaciones anteriores han demostrado que las minorías y las familias de bajos ingresos a menudo están sobrerrepresentadas en los datos que se recopilan, lo que podría crear un sesgo contra las familias afroamericanas u otras familias minoritarias, según la serie documental.

'Los sesgos humanos y los sesgos de datosvan de la mano unos con otros”, Dijo Kelly Capatosto, investigadora asociada principal del Instituto Kirwan para el Estudio de Razas y Etnias de la Universidad Estatal de Ohio, según el Centro de Periodismo de Salud. “Con estas decisiones, pensamos en la vigilancia y el contacto del sistema: con la policía, las agencias de bienestar infantil, cualquier agencia que brinde servicios de bienestar social. Va a estar sobrerrepresentado en comunidades (de bajos ingresos y minoritarias). No es necesariamente indicativo de dónde están ocurriendo estos casos '.

Erin Dalton, subdirectora de la oficina de análisis, tecnología y planificación del condado de Allegheny, admitió que el sesgo es posible.

“Sin duda, existe un sesgo en nuestros sistemas. El abuso infantil es visto por nosotros y nuestros datos no como una función del abuso infantil real, es una función de quién es denunciado ', dijo en la serie de Netflix.

Pero el condado también le dijo al Center for Health Journalism que descubrió que recibir beneficios públicos reduce las puntuaciones de riesgo para casi todas sus familias.

TEl condado es 'muy sensible' a esa preocupación y está haciendo un análisis continuo del sistema para determinar si los grupos han sido atacados de manera desproporcionada, dijo Cherna también en la serie documental.

El sistema del condado de Allegheny es propiedad del propio condado, pero también ha habido algunas críticas a otros sistemas de detección de propiedad privada.

El Departamento de Servicios para Niños y Familias de Illinois anunció en 2018 que ya no usaría un paquete de análisis predictivo desarrollado por Eckerd Connects, una organización sin fines de lucro, y su socio con fines de lucro MindShare Technology, en parte porque la compañía se negó a proporcionar detalles sobre qué factores estaban siendo utilizados en su fórmula, según The Times.

Según se informa, el sistema comenzó a designar a miles de niños que necesitaban protección urgente, lo que dio a más de 4,100 niños de Illinois una probabilidad del 90 por ciento o más de muerte o lesiones. El Chicago Tribune reportado en 2017.

Sin embargo, otros niños que no recibieron puntajes de alto riesgo terminaron muriendo por abuso.

'El análisis predictivo (no) estaba prediciendo ninguno de los casos malos', dijo la directora del Departamento de Servicios para Niños y Familias, Beverly 'B.J.' Walker le dijo al Tribune. 'He decidido no seguir adelante con ese contrato'.

Daniel Hatcher, autor de ' La industria de la pobreza: la explotación de los ciudadanos más vulnerables de Estados Unidos 'Comparó algunos de los sistemas analíticos con una' caja negra ', diciendo en la serie documental que no siempre está claro cómo toman sus decisiones.

“No tienen forma de averiguar cómo están decidiendo realmente un nivel de atención que tiene un gran impacto en un individuo”, dijo.

Putnam-Hornstein reconoció que los sistemas analíticos predictivos no pueden determinar el comportamiento futuro, pero cree que es una herramienta valiosa que permite a los evaluadores tomar decisiones más informadas sobre qué niños pueden correr mayor riesgo.

'Mi esperanza es que estos modelos ayuden a nuestro sistema a prestar más atención al subconjunto relativamente pequeño de referencias donde el riesgo es particularmente alto y podremos dedicar más recursos a esos niños y familias de manera preventiva', dijo. al Centro de Periodismo en Salud. “No quiero que nadie exagere el modelado predictivo de riesgos. No es una bola de cristal. No va a resolver todos nuestros problemas. Pero en el margen, si nos permite tomar decisiones ligeramente mejores e identificar los casos de alto riesgo y separarlos de los casos de bajo riesgo y ajustarlos en consecuencia, esto podría ser un avance importante para el campo ”.

Entradas Populares