03-Abr Ecología de Saberes e Inteligencias Artificiales

"El presente trabajo analiza la integración de la Inteligencia Artificial (IA) en el Trabajo Social Forense (TSF), explorando cómo esta metatecnología transforma la administración de justicia y la intervención social". Autor: Mario Daniel Díaz Ott: Especialista en Desarrollo Social (UNNE), Licenciado en Trabajo Social (UNSE), Profesor Universitario (UNNE), Maestrando Antropología Social (UNAM), Especializando Trabajo Social Forense(UNL/UNR) y Miembro del Cuerpo de Trabajadores Sociales Forenses del Poder Judicial de la Provincia de Corrientes (Argentina).

Ecología de saberes y metatecnología: Hacia una praxis forense humanizada y crítica en la era de la Inteligencia Artificial.

Resumen: 

El presente trabajo analiza la integración de la Inteligencia Artificial (IA) en el Trabajo Social Forense (TSF), explorando cómo esta “metatecnología” transforma la administración de justicia y la intervención social. Se destacan las oportunidades para optimizar la gestión documental, el análisis de datos y la investigación mediante herramientas como Gemini, NotebookLM y sistemas locales como Prometea. No obstante, el estudio subraya que la IA debe actuar como complemento —y no como sustituto— del juicio humano, la empatía y el pensamiento crítico. Se examinan desafíos éticos críticos, entre ellos los sesgos algorítmicos, la privacidad de datos sensibles y el imperativo del consentimiento informado. Finalmente, se propone una hoja de ruta para la institucionalización de estas herramientas en la provincia de Corrientes, Argentina, destacando la creación del “ForensIA Lab” en Ituzaingó como espacio orientado a promover una práctica forense que combine la eficiencia tecnológica con una ética profundamente humanizada y situada.

Palabras clave: Trabajo Social Forense, Inteligencia Artificial, Ética Profesional, Derechos Humanos, Corrientes.

Abstract:

This paper analyzes the integration of Artificial Intelligence (AI) into Forensic Social Work (FSW), exploring how this "metatechnology" transforms the administration of justice and social intervention. It highlights opportunities to optimize document management, data analysis, and research using tools such as Gemini, NotebookLM, and local systems like Prometea. However, the study emphasizes that AI must serve as a complement to, rather than a substitute for, human judgment, empathy, and critical thinking. Critical ethical challenges are examined, including algorithmic biases, the privacy of sensitive data, and the imperative of informed consent. Finally, it proposes a roadmap for the institutionalization of these tools in the province of Corrientes, Argentina, highlighting the creation of "ForensIA Lab" in Ituzaingó to promote a forensic practice that combines technological efficiency with a deeply humanized and situated ethics.

Keywords: Forensic Social Work, Artificial Intelligence, Professional Ethics, Human Rights, Corrientes.


Simbiosis tecnológica y compromiso humano: Un manifiesto para la Nueva praxis forense.

La irrupción de las Inteligencias Artificiales (IA) está reconfigurando el panorama profesional en múltiples sectores, y el Trabajo Social Forense (TSF) no es una excepción. Este trabajo explora la sinergia entre la IA y el TSF, destacando el potencial de esta metatecnología para optimizar procesos, agilizar la gestión documental y enriquecer el diagnóstico social forense mediante el análisis de grandes volúmenes de datos.

Herramientas como “Sembly” para la transcripción de reuniones, “Chat PDF” para el resumen de documentos extensos, y “Perplexity” para la investigación avanzada, pueden servir para una mejora significativa en la eficiencia y la calidad de la intervención profesional, liberando al Trabajador Social para centrarse en la interacción humana y el apoyo directo a las personas.

Sin embargo, la integración de la IA en un campo como el forense no está exenta de desafíos éticos y epistemológicos sustanciales. La preocupación por los sesgos algorítmicos que podrían perpetuar la discriminación, la estricta necesidad de garantizar la privacidad y confidencialidad de datos sensibles, y la necesidad de mantener la supervisión y el juicio humano como elementos insustituibles en la toma de decisiones, son aspectos críticos que requieren una atención meticulosa.

Las IA debe ser concebida como una metatecnoclogia complementaria, nunca como un sustituto de la empatía, la inteligencia emocional y el análisis crítico que caracterizan, entre otras cualidades, la labor del trabajador/a social forense.

Para una implementación responsable, se enfatiza la necesidad de marcos éticos sólidos, regulaciones claras y una formación continua para los profesionales. La transparencia en el funcionamiento de los algoritmos, la auditabilidad de sus procesos y la mitigación activa de sesgos son pilares para construir confianza y asegurar que la IA sirva a los principios de justicia, equidad y defensa de los derechos humanos que son el fundamento del Trabajo Social. Este trabajo concluye que la clave reside en forjar una "ecología de saberes" donde la tecnología potencie la práctica forense sin deshumanizarla, garantizando una intervención más inclusiva, efectiva y, sobre todo, profundamente humanizada.

Metatecnologías en territorios de desigualdad: El entorno digital como nuevo escenario de intervención.

1.1.        El contexto global y local: crisis, desigualdad y la urgencia de nuevos enfoques en la intervención social.

El escenario global y local actual se define por una compleja red de crisis interconectadas en dimensiones socioeconómicas, culturales y políticas. Estas provocan un desmembramiento de las estructuras estatales que agrava las desigualdades y genera nuevas vulnerabilidades. En Argentina, este contexto se traduce en una inflación del 31,5% (INDEC, 2025) y una pobreza que alcanza al 31,6% de la población en ese año. Aunque estas cifras son menores que en periodos anteriores, ocultan desigualdades estructurales que afectan severamente a mujeres, niños y comunidades rurales. Esta fragilidad social se manifiesta, por ejemplo, en la persistencia de la violencia de género y en una brecha digital profunda, donde provincias como Corrientes reflejan disparidades históricas en infraestructura y servicios.

Ante este panorama, la implementación gradual de protocolos especializados y pericias sociales forenses en localidades como Ituzaingó busca respuestas más integrales, pero enfrenta la urgencia de nuevos enfoques metodológicos. En este marco, las Inteligencia Artificial (IA) emerge no solo como una herramienta tecnológica, sino como una “metatecnología” que opera sobre otras tecnologías y produce nuevo conocimiento son redes heterogéneas, híbridos y ensambles tecnológicos que a menudo están integrados e indiferenciados de los dispositivos donde se incorporan (Costa et al., 2023; Costa, Monaco, Covello, Novidelsky, Zabala, Rodríguez). Tal como analizan estos autores, la IA configura una “sociedad artificial”, especialmente en los Modelos de Lenguaje Grandes (LLM). Estos sistemas no son meras herramientas técnicas, sino entidades que operan desde y sobre el mundo social: su “alimento” (input) y producción (output) consisten en materiales de la vida social, como el lenguaje, las emociones y las relaciones culturales. Al acelerar y gestionar dinámicas de interacción humana a gran escala, estos sistemas “producen sociedad”. Estos se convierten en un “mundo ambiente” que se ha vuelto indispensable para la vida cotidiana y los trámites obligatorios, dejando de ser una herramienta de uso opcional. Exigiendo un enfoque sistémico por sobre la mera relación individuo-usuario (Costa et al., 2023). Por ende, sus fallos no son simples errores de código, sino incidentes que afectan directamente derechos fundamentales.

Bajo esta perspectiva, lo técnico y lo social son inseparables: las IA deja de ser un objeto aislado para convertirse en un entorno que define reglas sociales. Para su correcto funcionamiento, valores humanos como la no discriminación y el cuidado de la vida deben inscribirse en su programación desde el diseño inicial. Como sistema que escala a nivel social, las IA genera riesgos como la manipulación del comportamiento, la desinformación o la multiplicación de sesgos que afectan la calidad democrática. Debido a su complejidad, es indispensable que profesionales de las ciencias sociales —como el Trabajo Social— participen activamente en su desarrollo, análisis y monitoreo.

En el ámbito forense, esta visión es crucial. No bastan “códigos de buenas prácticas”; se requieren estructuras de rendición de cuentas vinculantes y auditorías independientes. La regulación debe proteger a la sociedad como a una infraestructura crítica, integrando la seguridad en todo el ciclo de vida del sistema para garantizar su confiabilidad y robustez.

Actualmente, las IA en América Latina se encuentra en diversas etapas de desarrollo, con asistentes virtuales como “Violetta”, “Sofía” o “Sara” (Cabrera, 2024), diseñados para ofrecer soporte emocional y romper barreras de miedo en víctimas de violencia. Por ello, el Trabajo Social Forense debe integrarse como una práctica técnica que optimice la operatividad: automatizando tareas administrativas, elaborando reportes integrales y empleando redes neuronales para identificar patrones de vulnerabilidad social.

La investigación de Fernández et al. (2025) en Ecuador revela una significativa brecha digital en el colectivo profesional, el 56% de los trabajadores sociales admite tener un conocimiento escaso o nulo sobre la IA generativa. A pesar de este desconocimiento técnico, existe una actitud receptiva, ya que la mitad de los profesionales considera que las IA serán una herramienta "muy útil" para la disciplina.

Este hallazgo subraya la urgencia de implementar programas de formación especializada que permitan transitar desde la curiosidad hacia una integración ética y productiva, garantizando que el profesional mantenga el control sobre las herramientas tecnológicas en contextos críticos como el área forense.

Este desafío radica en liderar esta implementación, potenciando por un lado la interacción directa y el acompañamiento socioemocional a las personas y delegar labores monótonas a la tecnología asegurando que la innovación digital no reproduzca brechas existentes, sino que tienda a reducirlas.

Objetivo y estructura del documento

Como se dijo anteriormente el presente trabajo intentara problematizar la implementación de las IA y que como esta metatecnología puede complementar y, en última instancia, transformar la práctica del Trabajo Social Forense.

Se busca resaltar tanto los beneficios tangibles que esta convergencia tecnológica puede aportar al campo, como los complejos desafíos éticos y epistemológicos que inevitablemente surgen.

Para lograr estos objetivos, el presente trabajo se estructura de la siguiente manera:

  • La Sección 2 se dedica a las Inteligencias Artificiales, definiendo sus conceptos clave, presentando herramientas generales y discutiendo sus beneficios y desafíos éticos en un contexto más amplio del trabajo social.
  • La Sección 3 aborda los fundamentos y particularidades del Trabajo Social Forense, su rol en la administración de justicia y sus dimensiones constitutivas.
  • La Sección 4 es el núcleo del análisis, explorando la convergencia y sinergia específica de las IA en la práctica del TSF, detallando oportunidades y profundizando en los desafíos éticos y epistemológicos inherentes a esta aplicación.
  • La Sección 5 presenta propuestas concretas para la institucionalización, desarrollo y formación en el ámbito local.
  • Finalmente, la Sección 6 ofrece una conclusión que sintetiza los hallazgos y propone una visión hacia una práctica forense transformadora y éticamente consciente.

1.2.  El Imperativo ético ante el sesgo algorítmico: Salvaguardando el compromiso fundacional del Trabajo Social.

Desde sus orígenes, el Trabajo Social ha estado imbuido de una intencionalidad interventiva y transformadora, con un compromiso con la defensa de los derechos humanos de los más vulnerables. Esta disciplina se ha posicionado históricamente en la vanguardia de la lucha contra la inquidad, la discriminación y la injusticia social, buscando siempre propiciar la emancipación y el bienestar de las personas y comunidades. La ética profesional del Trabajo Social se cimienta en principios como el respeto a la dignidad inherente de la humanidad, la promoción de los derechos humanos, la justicia social, la autodeterminación y la participación, así como la confidencialidad y la privacidad.

La integración de las IA en el Trabajo Social no debe, en ninguna circunstancia, diluir este compromiso ético y fundacional, sino que, por el contrario, debe reforzarlo.

Cualquier dispositivo IA que se considere para su aplicación en el campo debe ser evaluada no solo por su eficiencia o su capacidad para simplificar tareas, sino fundamentalmente por su alineación con estos principios inalienables.

Si las IA se percibe únicamente como un medio para optimizar la eficiencia operativa, existe un riesgo considerable de ignorar su potencial para perpetuar o incluso amplificar injusticias existentes.  Tal como se refiere [Costa 2023], las IA , tiene como una de sus características de ser un “mundoambiente” o “ecosistema digital” que se ha vuelto indispensable para la vida cotidiana y los trámites obligatorios, dejando de ser una herramienta de uso opcional. Esto implica un cambio fundamental en nuestra relación con la tecnología: deja de ser un objeto que elegimos usar para convertirse en el entorno mismo en el que se desarrolla la vida moderna. 

Un ejemplo notorio de amplificación de injusticia se observa en el caso del algoritmo “COMPAS” en el sistema judicial estadounidense.

Este software, utilizado para predecir la probabilidad de reincidencia de los acusados, ha sido objeto de controversia por alegaciones de sesgos raciales en sus predicciones.

La investigación ha demostrado que, si bien el algoritmo podía ser "preciso" en ciertos parámetros, presentaba un desequilibrio en las tasas de error que perjudicaba desproporcionadamente a afroamericanos, clasificándolos con mayor riesgo de reincidencia incluso cuando no reincidían. Esto resalta cómo los sesgos algorítmicos (errores sistemáticos que crean resultados injustos debido a datos de entrenamiento prejuiciosos) pueden llevar a resultados discriminatorios, erosionando la confianza y la equidad en la justicia.

1.3. La irrupción de las IA: Un catalizador de cambio en diversas profesiones

Las IA está reconfigurando el panorama profesional en múltiples sectores, actuando como un catalizador de transformación sin precedentes.

Su impacto se extiende desde la simplificación de tareas rutinarias hasta la optimización de procesos complejos de toma de decisiones. En general, la incorporación de las IA ofrece ventajas como la personalización de la experiencia de los usuarios, la automatización de procesos repetitivos, la reducción de tiempos de respuesta, la toma de decisiones basada en evidencia y la mejora en la precisión de los resultados.

En el ámbito del Trabajo Social, incluyendo el Trabajo Social Forense (TSF), las IA se presenta como una oportunidad significativa para fortalecer la práctica profesional, mejorando su eficiencia, accesibilidad y precisión en la prestación de servicios. Sin embargo, esta integración debe ser meticulosamente organizada y monitoreada, priorizando la ética y el bienestar de las personas.

2- Arquitectura de las IA: Herramientas y dispositivos para una gestión del conocimiento basada en evidencia.

2.1. ¿Qué son las Inteligencia Artificial? Definiciones, alcance y tipos de IA

Las inteligencias artificiales comenzaron a ser diseñadas y construidas a mediados de los años cincuenta del siglo XX, en un campo que cruza las ciencias de la computación, las ciencias cognitivas, la cibernética y las ciencias de la comunicación, y que investiga y desarrolla tecnologías que replican o emulan ciertos comportamientos humanos. De este modo, hablamos de IA, en principio, cuando un sistema computacional tiene la capacidad de realizar “funciones cognitivas similares a las de los humanos” (OCDE, 2019).

Existen diferentes tipos de IA, y la distinción principal se basa en cómo procesan y utilizan la información:

  • IA Predictiva:

Las IA predictivas analizan grandes volúmenes de datos históricos para identificar patrones y hacer cálculos probabilísticos sobre lo que podría ocurrir en el futuro. En lugar de ser programados explícitamente para cada tarea, los algoritmos de Machine Learning (una subdisciplina de la IA) mejoran su rendimiento a medida que se exponen a más datos.

  • IA Generativa y Redes Neuronales:

Las IA generativas, como ChatGPT, se basan en redes neuronales y han logrado un gran avance en la capacidad de entender el lenguaje natural y comunicarse en ese mismo lenguaje. Su función principal es crear contenido nuevo (textos, imágenes, guiones, etc.) basándose en patrones aprendidos de los datos con los que fueron entrenadas. Tienen la particularidad de que sus respuestas son probabilísticas; buscan parecer inteligentes o humanas, pudiendo incluso "alucinar" (inventar información) actualmente con un porcentaje pequeño.

 Procesamiento del Lenguaje Natural (PNL):

Es el campo de las IA que permite a las máquinas comprender, interpretar y generar lenguaje humano. Las herramientas de PNL son cruciales para el Trabajo Social, ya que facilitan el análisis de textos, la transcripción de conversaciones y la interacción con asistentes virtuales.

2.2. Las IA y sus aplicaciones generales en el Trabajo Social: ejemplos prácticos

Deep Research puede explorar automáticamente cientos de sitios web relevantes, analizar la información y generar informes de investigación completos de varias páginas en minutos, incluso con resúmenes de audio y video. Este sistema agente realiza una planificación de varios pasos, investiga de forma iterativa y sintetiza hallazgos en documentos estructurados, permitiendo a los profesionales del TSF obtener rápidamente panoramas actualizados sobre temas complejos (jurisprudencia, políticas públicas, estudios sociales, etc.) sin revisar manualmente miles de fuentes.

Por su parte, NotebookLM es un dispositivo de investigación potenciada por IA (impulsada por los mismos modelos Gemini) diseñada para trabajar solo con las fuentes proporcionadas por el usuario. Esto significa que un trabajador social forense puede cargar material de estudio, encuestas, pdf de normativas etc, y NotebookLM procesará exclusivamente ese material interno. De inmediato generará resúmenes, análisis estructurados y hasta guías de estudio con referencias precisas. Por ejemplo, si se sube un conjunto de sentencias y legislaciones sobre violencia de género, NotebookLM puede producir en segundos un resumen de la doctrina vigente con citas directas a los documentos fuente.

Asimismo, permite elaborar cronologías de hechos o resúmenes para cada texto cargado. Como describen expertos legales, este asistente se convierte en un “asesor de conocimiento legal” personalizado, capaz de optimizar la revisión de jurisprudencia y documentos complejos. Cabe destacar que NotebookLM también ofrece transcripciones de audio a texto, resúmenes ejecutivos y búsqueda de tendencias internas, lo que facilita la investigación social cualitativa y la planificación de intervenciones.

En conjunto, estos dispositivos emergentes (Gemini Deep Research, NotebookLM, y otras basadas en modelos de lenguaje) amplían la capacidad analítica del TSF. Permiten automatizar tareas de búsqueda y síntesis de información que antes consumían mucho tiempo, garantizando además citabilidad y trazabilidad de las fuentes.

Esto libera a los profesionales para dedicarse a los aspectos cualitativos de su trabajo. Al mismo tiempo, la adopción de Gemini y NotebookLM subraya la importancia de la alfabetización tecnológica: la UNESCO señala que el auge de las IA exige un incremento proporcional en la educación en datos y alfabetización mediática para mitigar riesgos de desinformación y empoderar a los usuarios. 

Los modelos de procesamiento de lenguaje natural (PLN) pueden analizar grandes volúmenes de texto cualitativo, por ejemplo, transcripciones de entrevistas familiares o grupos focales, para identificar temas recurrentes, patrones emocionales o redes semánticas. Alkhattabi et al. (2023) revisaron aplicaciones de IA en prevención del maltrato infantil y concluyeron que la minería de textos puede “ayudar a predecir riesgos de violencia contra niños”, apoyando a los profesionales de primera línea en detectar posibles casos de abuso con mayor anticipación. Esto refleja que algoritmos entrenados con datos clínicos o sociales pueden asistir en la evaluación de riesgo, complementando la experiencia del trabajador social con análisis objetivos.

Plataformas como ChatPDF o Perplexity AI combinan búsqueda web con modelos lingüísticos avanzados para resumir documentos PDF extensos, jurisprudencia y literatura académica. Un trabajador social forense puede cargar un extenso fallo judicial y, mediante IA, obtener en segundos un resumen ejecutivo de los puntos claves. Además, Perplexity cita automáticamente las fuentes, garantizando fiabilidad. Esto acelera la revisión de expedientes y apoya la toma de decisiones basada en evidencia.

Estas herramientas pueden proporcionar actualizaciones puntuales sobre avances en criminología o políticas de infancia, con enlaces a documentos oficiales. Así, se refuerza el diagnóstico social forense con información actualizada y contextualizada.

Los asistentes virtuales (chatbots) y sistemas de soporte de comunicación pueden mejorar la colaboración entre trabajadores sociales, jueces, abogados y otros actores. Por ejemplo, un chatbot legal puede proporcionar respuestas inmediatas a preguntas frecuentes sobre procedimientos judiciales o recursos comunitarios, facilitando el trabajo conjunto. Microsoft reporta que chatbots gubernamentales (como “Boti” de la Ciudad de Buenos Aires) han manejado millones de consultas ciudadanas, reduciendo la carga operativa en más de 50%. En el ámbito forense-social, una herramienta similar podría orientar a víctimas o familias en la comprensión de sus derechos y pasos procesales, aliviando la carga de consultas administrativas en los TSF.

Las IA puede utilizarse para la detección temprana de vulnerabilidades o violaciones de derechos. Un ejemplo destacado es el caso de Espoo (Finlandia), donde se emplearon algoritmos para identificar proactivamente a familias en riesgo de exclusión social y dirigir programas preventivos antes de que se desencadenara una crisis. En trabajo social forense, herramientas similares podrían analizar indicadores socioeconómicos y reportes previos para anticipar casos de violencia intrafamiliar o negligencia, permitiendo intervenciones oportunas. Asimismo, sistemas automatizados de tipificación —como el proyecto DPR de la Fundación iSocial— clasificarían llamadas de asistencia (violencia de género, maltrato infantil, etc.) sugiriendo recursos adecuados, agilizando la derivación a servicios especializados.

2.3. Presente, desafíos y preocupaciones en la implementación de las IA

A pesar de los beneficios señalados, la implementación de las IA en el Trabajo Social conlleva riesgos que no pueden ser minimizados ni abordados de manera superficial. Una de las preocupaciones más acuciantes es la de los sesgos algorítmicos: si los datos de entrenamiento reflejan prejuicios históricos, el algoritmo puede amplificarlos, conduciendo a decisiones discriminatorias. La privacidad y la confidencialidad son igualmente críticas; el manejo de grandes volúmenes de datos sensibles aumenta el riesgo de filtraciones e infracciones que vulneran derechos fundamentales. Asimismo, persiste el debate sobre la sustitución versus el complemento del factor humano; la postura ética defiende que la IA debe potenciar, no reemplazar, la empatía y el juicio crítico profesional.

En el escenario internacional, estas preocupaciones han dejado de ser abstractas para materializarse en desarrollos concretos. En Gran Bretaña, cientos de trabajadores sociales han comenzado a utilizar herramientas como Magic Notes —desarrollada con algoritmos de Deepgram y OpenAI— y Copilot de Microsoft, sistemas que registran conversaciones, producen resúmenes casi instantáneos y sugieren acciones de seguimiento, incluyendo la redacción de cartas a profesionales de salud (Booth, 2024).

Lejos de ser una mera innovación técnica, estos dispositivos operan en un contexto de escasez de recursos institucionales y sobrecarga laboral, donde la lógica neoliberal de la eficiencia se impone sobre la reflexión ética. La investigadora Garrett (2026) advierte que, en este marco, la idea misma de incorporar más personal con cargas de trabajo menores queda eclipsada por la oferta tecnológica, presentada como la única solución posible.

Íntimamente ligada a esta problemática, emerge la cuestión de la confidencialidad y la privacidad de los datos. El llamado extractivismo de datos —característica central del modelo de negocios de las grandes corporaciones tecnológicas— implica que la información personal de las personas usuarias de servicios sociales es tratada como una fuente de valor económico, recopilada, fragmentada y potencialmente comercializada. En los sistemas de gestión de la pobreza y la vulnerabilidad social, existe frecuentemente un margen nulo para que las personas puedan negarse a que sus datos sean recopilados y procesados (Varon y Peña, 2021).

Las personas en situación de mayor vulnerabilidad —aquellas con escaso capital simbólico en términos bourdianos— son las menos informadas de que sus casos, sus entrevistas y sus historias de vida están siendo resumidas y analizadas por sistemas automatizados (Garrett, 2026). Esta dimensión es especialmente relevante para el Trabajo Social Forense, donde la confidencialidad no es solo un principio ético sino una garantía procesal.

Otro eje de preocupación central es el del derecho a la autodeterminación y la participación. Cuando las decisiones sobre prestaciones, riesgo o intervención son informadas o ejecutadas por algoritmos, se erosiona la capacidad de las personas de participar activamente en los procesos que las afectan. Casos como el del sistema de análisis predictivo COMPAS en Estados Unidos, señalado en este mismo documento, o el despliegue experimental de algoritmos de Palantir en Nueva Orleans —que afectaron desproporcionadamente a comunidades afroamericanas— ilustran cómo los sesgos estructurales se transfieren y amplifican en los sistemas de IA (Mohamed, Png e Isaac, 2020). El trabajador y la trabajadora social, en tanto defensores de los derechos de las personas, no pueden permanecer ajenos a la cadena de decisiones en la que estos algoritmos operan.

Frente a la argumentación corporativa de que el "humano en el bucle" garantiza la supervisión ética de la IA, la investigación crítica ofrece una perspectiva más cautelosa. La antropóloga Madeleine Clare Elish (2019) acuña el concepto de moral crumple zone o "zona de deformación moral", por analogía con la zona de deformación programada de los automóviles: así como esta absorbe el impacto en un accidente para proteger a los pasajeros, el profesional humano en un sistema automatizado complejo termina absorbiendo la responsabilidad moral y legal cuando el sistema falla, aun cuando su control efectivo sobre el algoritmo haya sido mínimo o nulo. En profesiones con alta exposición pública como el Trabajo Social, esto tiene consecuencias concretas: el profesional puede verse presionado a no cuestionar las recomendaciones algorítmicas —por ejemplo, una "acción de seguimiento" sugerida por Magic Notes— ante el temor de ser responsabilizado individualmente si ocurre un hecho grave luego de haber anulado la sugerencia del sistema (McQuillan, 2022). La institución, en este esquema, se convierte en el verdadero "humano en el bucle", subordinando la autonomía profesional a las prioridades organizacionales.

A este riesgo de obediencia tecnocrática se suma lo que Bauman (2000) denominara, a comienzos de siglo, el peligro de la "ejecución procedimental" y la seducción de la claridad algorítmica por sobre la atención a la ambigüedad constitutiva de la vida social. Como señala McQuillan (2022), la IA no está diseñada para la comprensión reflexiva, sino para predecir y segmentar: su lógica no produce explicaciones sociológicas de los problemas complejos de las personas, sino descripciones superficiales que pueden suplantar el análisis crítico. En instituciones con poder para producir daños sociales, el mayor riesgo no es la sustitución del profesional por una máquina, sino la extensión computacional de automatismos sociales preexistentes, de irreflexiones institucionalizadas.

Finalmente, existe una dimensión frecuentemente invisibilizada en los discursos institucionales sobre la IA: su impacto ambiental y ecológico. La expansión exponencial de la IA demanda una infraestructura física masiva —minerales críticos, agua para refrigerar centros de datos, energía eléctrica en escala creciente—, todo ello con costos socioambientales que recaen desproporcionadamente sobre las comunidades del Sur Global (Dauvergne, 2022). Irlanda, por ejemplo, destinó en 2023 el 21% de su suministro eléctrico nacional a centros de datos (Ambrose, 2024). La Federación Internacional de Trabajadores Sociales (FITS) ha sido explícita al respecto: el compromiso ético de la profesión con la sostenibilidad y los Objetivos de Desarrollo Sostenible (ODS) de la ONU implica no ser ajenos a las consecuencias ecológicas de las tecnologías que adoptamos en nuestra práctica cotidiana (FITS, 2021; 2022).

En síntesis, la implementación de la IA en el Trabajo Social —y particularmente en su dimensión forense— exige superar tanto el entusiasmo acrítico como el rechazo defensivo, para avanzar hacia una apropiación técnica y políticamente consciente. Esto requiere marcos éticos vinculantes, auditorías independientes, formación permanente y una vigilancia epistemológica que no se limite a los datos, sino que se extienda a los propios algoritmos y a los intereses corporativos que los producen.

2.4 La transformación digital: de “Prometea” al “Juez Inteligente”

En el cruce actual entre el derecho y las nuevas tecnologías, surgen herramientas que están redefiniendo la labor judicial. Uno de los hitos más importantes en nuestro país es Prometea, la primera inteligencia artificial predictiva aplicada a la justicia en Latinoamérica. Implementada en el Ministerio Público Fiscal de la Ciudad de Buenos Aires, fue ideada por Dr. Juan Gustavo Corvalán, referente en derecho digital y director del IALAB de la UBA. Prometea no es simplemente un buscador, sino un ecosistema capaz de analizar expedientes y proponer dictámenes en segundos, optimizando procesos que antes tomaban meses.

La llegada de estas herramientas no se ha quedado en la teoría ni en las grandes capitales. Un caso de éxito fundamental para entender la aplicación territorial de la IA es el software "Juez Inteligente", implementado en el Poder Judicial de la provincia del Chaco. Esta tecnología, que utiliza el motor de Prometea, fue puesta en marcha por el juez Dr. Sergio Alejandro Claps en el Juzgado Civil y Comercial Nº 13 de Resistencia. Claps, pionero en la materia, ha demostrado que la IA puede gestionar de forma autónoma procesos de ejecución fiscal y cobro de deudas, liberando a la estructura judicial de tareas mecánicas y repetitivas.

Para los profesionales del área social que intervienen en contextos de vulnerabilidad, esto se traduce en beneficios concretos como, por ejemplo: procesos más ágiles disminuyendo la incertidumbre y el desgaste psicosocial de las personas involucradas, al automatizar lo mecánico, los equipos técnicos (incluyendo a los trabajadores sociales) pueden dedicar más tiempo y recursos al análisis de casos donde el factor humano, la empatía y la valoración social son irremplazables por un algoritmo.

3. Dimensiones del Saber-Hacer forense: Vigilancia epistémica en la evaluación de la complejidad social.

3.1. Rasgo epistemológico y el Saber-Hacer especializado del TSF

El Trabajo Social Forense (TSF) se distingue por un rasgo epistemológico particular que lo sitúa de manera única dentro de la Administración de Justicia. Su práctica se caracteriza por la diversidad y complejidad de las demandas de intervención que emanan de organismos judiciales, lo que exige un "saber-hacer" profundamente situado, específico y altamente especializado. A diferencia de otras ramas, el TSF opera en un entorno donde las decisiones tienen implicaciones legales directas. Esto requiere no solo una sólida base en las ciencias sociales, sino también un conocimiento de los sistemas legales. Por ende, las IA no pueden ser genéricas; deben ser adaptadas y validadas en el contexto forense para ser útiles y éticas.

3.2. Dimensiones constitutivas de la intervención profesional

La intervención profesional en el Trabajo Social Forense se articula a través de diversas dimensiones interdependientes que estructuran la práctica comenzando por la dimensión epistemológica referida al conocimiento y las bases teóricas que la sustentan siguiendo por la dimensión ontológica que aborda la concepción del ser humano y la realidad social reconociendo la complejidad de las subjetividades más allá del expediente judicial. Asimismo, se integra la dimensión metodológica concerniente al cómo hacer mediante estrategias adaptadas a la prueba judicial, la dimensión técnica que abarca el conjunto de herramientas e instrumentos específicos y la dimensión procedimental que hace hincapié en los protocolos estandarizados dentro del sistema de justicia.

En este marco el diagnóstico de Trabajo Social constituye un pilar fundamental para la autonomía profesional permitiendo emitir juicios expertos basados en una evaluación integral. Si bien la inteligencia artificial puede optimizar la recopilación de datos para este diagnóstico su introducción conlleva el riesgo de una dependencia excesiva de los resultados algorítmicos que podría erosionar la capacidad de juicio crítico por lo cual la interpretación contextual y el juicio final deben permanecer ineludiblemente en el ámbito de la experticia humana.

3.3. Técnicas e instrumentos específicos del TSF: Un vistazo a la dimensión Técnico-Instrumental y su vigilancia epistémica.

La dimensión técnico-instrumental abarca técnicas especializadas como la observación, el registro, las entrevistas (individuales y grupales), la historia social, el genograma, el ecograma, el mapa de redes, la línea de tiempo, el sociograma y la intervención en contexto domiciliario.

En el TSF, la práctica exige un ejercicio constante de vigilancia epistemológica para propiciar intervenciones anti-opresivas. Con las IA, esta vigilancia es más crítica que nunca, ya que los sistemas pueden replicar y escalar sesgos sociales. La "desnaturalización" debe extenderse a los propios algoritmos y los datos que los alimentan, cuestionando sus supuestos y el poder que confieren a sus resultados, para asegurar que la tecnología no refuerce las desigualdades existentes.

4. Sinergia crítica: El encuentro entre la Inteligencia Emocional y el procesamiento algorítmico.

4.1. Desafíos éticos y epistemológicos específicos de las IA en el TSF

Si bien algunas IA ofrecen una agilidad sin precedentes al automatizar actas y resúmenes, su implementación debe ser extremadamente cautelosa y nunca automática.

En casos que involucren entrevistas sensibles (abuso sexual infantil, violencia de género o situaciones de trauma), el uso de las IA comerciales en la nube presentase riesgos críticos:

  • Riesgo de confidencialidad y gobernanza de datos: Subir audios con testimonios de víctimas a plataformas de terceros puede violar normativas de protección de datos sensibles. Para cumplir con el imperativo ético de la profesión, el perito debe priorizar el uso de modelos de IA de procesamiento local (que no envíen datos a la nube) o entornos corporativos con certificación de seguridad judicial.
  • La Insustituible escucha activa: Las IA puede capturar las palabras (el "qué"), pero carece de la capacidad para interpretar el lenguaje no verbal, los silencios cargados de significado y la dimensión emocional del relato. En el TSF, el registro no es solo una transcripción; es una construcción de sentido donde el profesional debe "leer" el contexto que la máquina ignora.
  • Consentimiento informado específico: La integración de estas herramientas exige una actualización del consentimiento informado. Los sujetos de intervención deben ser notificados no solo de que la entrevista será grabada, sino de que será procesada por un sistema de inteligencia artificial, explicando los fines y las medidas de seguridad adoptadas para proteger su intimidad.
  • Vigilancia ante la "alucinación" en el relato: Los modelos de lenguaje pueden "alucinar" o alterar matices en las síntesis de testimonios. Un error en la síntesis de un relato de violencia puede tener consecuencias jurídicas devastadoras; por ello, el control humano y la verificación palabra por palabra son obligatorios antes de elevar cualquier informe basado en IA.

El trabajador social debe mantener una actitud crítica frente a los resultados de la IA, no delegando la decisión final. Es esencial verificar la veracidad de la información proporcionada por las IA para evitar errores judiciales basados en datos falsos o manipulados (como deepfakes).

5. Propuestas: “ForensIA Lab” y soberanía digital: Propuestas territoriales para una institucionalización ética y situada. 

Considerando el contexto local de la provincia de Corrientes y la necesidad de una implementación adecuada y con progresión sostenida se proponen las siguientes líneas de acción para el fortalecimiento del Trabajo Social Forense en la era digital:

5.1. Supervisión en la era digital

Es fundamental desarrollar nuevos modelos de supervisión profesional que no solo evalúen la intervención social clásica, sino que también auditen el uso de herramientas de IA. La supervisión debe garantizar que el criterio humano prevalezca sobre la sugerencia algorítmica, actuando como un control de calidad ético y técnico en los informes periciales.

5.2. Actualización de protocolos y normativas

A nivel institucional, local y provincial (Poder Judicial de Corrientes), se deben actualizar y concluir los Protocolos de actuación profesional del Trabajo Social Forense. Estos documentos deben incorporar explícitamente la utilización de las IA, definiendo qué herramientas están permitidas, en qué etapas del proceso (ej. transcripción vs. diagnóstico) y en qué condiciones de seguridad, garantizando la transparencia procesal.

5.3. Capacitación continua y articulada

Se propone articular con el Área de Capacitación del Poder Judicial y el Sector de Informática programas de formación permanente. El objetivo es que los peritos no solo sean usuarios de tecnología, sino que comprendan la lógica de los datos y los algoritmos para evitar errores de interpretación y detectar posibles sesgos en las herramientas digitales.

5.4. Rol del colegio profesional y ética

Es imperativo que el Colegio de Trabajadores Sociales de la provincia inicie mesas de trabajo para debatir las implicancias éticas de las IA. Esto debería derivar en recomendaciones para la actualización de la Ley Profesional vigente y los códigos de ética, incorporando las nuevas competencias digitales y los límites deontológicos del uso de algoritmos.

5.5. Formación de Grado

Finalmente, se insta a las universidades y unidades académicas a revisar los planes de estudio de la carrera de Trabajo Social. Las IA debe incorporarse transversalmente en materias metodológicas y éticas, preparando a las futuras generaciones para un ejercicio profesional híbrido, tecnológicamente mediado y éticamente consciente.

5.6. Propuesta de protocolo para el uso ético de las IA en el Trabajo Social Forense:

  1. Primacía del criterio profesional: La Inteligencia Artificial debe actuar estrictamente como una metatecnología complementaria para optimizar tareas administrativas o de síntesis informativa. La decisión final sobre el diagnóstico social forense y las recomendaciones periciales son responsabilidad exclusiva e indelegable del trabajador social, quien debe supervisar y validar cada resultado generado por el algoritmo.
  2. Protección de datos sensibles y procesamiento seguro: Queda prohibido el uso de las IA comerciales basadas en la nube (modelos abiertos) para el procesamiento de entrevistas o expedientes que contengan información sensible de víctimas en situación de vulnerabilidad. Se priorizará la implementación de modelos de lenguaje de procesamiento local o entornos digitales cerrados que garanticen la confidencialidad y el secreto profesional.
  3.   Transparencia y mitigación de sesgos algorítmicos: Todo informe pericial que utilice IA para el análisis de datos o la investigación socio-jurídica debe declarar explícitamente qué herramienta se utilizó y para qué fin. El profesional debe realizar un ejercicio de "desnaturalización" de los resultados, auditando activamente que los algoritmos no repliquen prejuicios históricos o discriminación estructural.
  4. Actualización del consentimiento informado: En el marco de la intervención forense en Corrientes, se debe informar a los sujetos de la pericia sobre el uso de metatecnología de IA en el registro o procesamiento de la información. Se debe garantizar que la persona comprenda la finalidad de la tecnología y las medidas de seguridad adoptadas para proteger su privacidad.

5.7. Propuesta de creación: "ForensIA Lab" (Laboratorio de Inteligencia Artificial para el Trabajo Social Forense)

El objetivo principal seria desarrollar e implementar el ForensIA Lab en Ituzaingó (Corrientes), un centro pionero dedicado a crear Inteligencia Artificial (IA) ética y situada.

Su propósito no es reemplazar al profesional, sino asistir al trabajador social forense, automatizando la carga administrativa para que pueda enfocar su tiempo y energía en la intervención humana, la contención y el juicio clínico.

Los dispositivos tecnológicos para desarrollar el proyecto contemplaría tres soluciones de "IA Aumentada":

  • Bot de Triage (clasificación) "Ñandé": Un asistente conversacional de WhatsApp (24/7) que orienta a los ciudadanos, procesa lenguaje natural para detectar alertas tempranas y deriva casos de alto riesgo (ej. violencia familiar) a la guardia profesional.
  • Analizador forense de patrones: Un software de uso exclusivo para peritos que procesa grandes volúmenes de expedientes históricos en segundos, extrayendo cronologías y mapas de riesgo antes de las entrevistas.
  • Copiloto pericial: Una IA generativa entrenada con normativa provincial que transforma las notas de campo del profesional en borradores estructurados de informes periciales, ahorrando horas de tipeo.

Dado el carácter sensible de los datos sociales y forenses, el laboratorio operaria bajo tres pilares innegociables:

1-     Soberanía de datos: Uso de servidores locales (on-premise) sin conexión a nubes comerciales, garantizando privacidad absoluta según la Ley 25.326.

2-     Humanos en el centro: La IA solo organiza y asiste; el diagnóstico y la toma de decisiones recaen exclusivamente en el profesional forense y magistrado.

3-     Entrenamiento situado: Los modelos se calibrarán con los modismos, dialectos y la realidad sociocultural de Corrientes, eliminando los sesgos de IA extranjeras genéricas.

El financiamiento inicial se destinará a infraestructura segura, contratación de un equipo interdisciplinario (desarrolladores, trabajadores sociales, abogados) y capacitación judicial. Esto generará un retorno medible mediante:

  • Mayor eficiencia: Reducción de tiempos administrativos de semanas a días.
  • Prevención activa: Detección y abordaje temprano de conflictos intrafamiliares.
  • Polo de innovación: Posicionamiento de Ituzaingó como un referente latinoamericano en GovTech (Gobierno más tecnología) y LegalTech (legal más tecnología) aplicado a la justicia social.

La creación del “ForensIA Lab” se fundamenta no solo en una necesidad técnica, sino en la evolución natural del proceso de modernización que el Poder Judicial de la provincia de Corrientes ha iniciado. Actualmente, el Poder Judicial y el Ministerio Público cuentan con herramientas sólidas como el asistente Arapy —enfocado en la orientación ciudadana— y sistemas de automatización inspirados en modelos como Prometea, que han demostrado reducir drásticamente los tiempos en la redacción de sentencias y resoluciones administrativas.

Sin embargo, el “ForensIA Lab” viene a cubrir un "vacío de especialidad" dentro de este ecosistema. Mientras que las soluciones vigentes se centran en lo estrictamente jurídico y procedimental, la propuesta se enfoca en la dimensión social y humana del proceso judicial:

  • Complementariedad con Arapy: Mientras que el bot actual cumple una función informativa, el asistente "Ñandé" del “ForensIA Lab” incorporaría procesamiento de Lenguaje Natural (NLP) avanzado para la detección de indicadores de riesgo social, actuando como un sensor temprano de vulnerabilidad.
  • Especialización Forense: A diferencia de las herramientas de redacción de sentencias, el “Copiloto Pericial” estará diseñado específicamente para la narrativa del Trabajo Social, respetando la estructura de los informes de campo y las observaciones clínicas, garantizando que la tecnología potencie —y no desvirtúe— el juicio profesional.
  • Soberanía y Contexto Regional: Al igual que las iniciativas locales de mediación asistida por IA (como MEJU-IA), el “ForensIA Lab” prioriza un entrenamiento situado en la realidad de Corrientes, asegurando que los algoritmos comprendan la idiosincrasia y el lenguaje local, algo que las IAs comerciales genéricas no pueden ofrecer.

El “ForensIA Lab” se posicionaría como el brazo tecnológico especializado para el cuerpo de trabajadores sociales, integrándose de manera armónica con la infraestructura digital existente del Poder Judicial de la provincia de Corrientes.

6.Conclusion:  Hacia una ecología de saberes: La consolidación de una praxis forense transformadora y humanizada.

La consolidación de una praxis forense transformadora y humanizada exige comprender que la incorporación de la inteligencia artificial (IA) en el Trabajo Social Forense no constituye una posibilidad futura ni una opción discrecional, sino una realidad emergente que interpela de manera directa las prácticas profesionales contemporáneas.

A lo largo de este análisis, se ha puesto de manifiesto que las IA, si bien puede representar una amenaza para los principios éticos y humanistas de la disciplina, también ofrece oportunidades concretas para fortalecer la intervención. Al optimizar los procesos de análisis, la sistematización de información y la toma de decisiones, estas herramientas mejoran la eficiencia, la accesibilidad y la precisión técnica de las actuaciones periciales.

No obstante, esta transición enfrenta una resistencia crítica en diversos sectores del colectivo profesional, donde persiste una negativa —ya sea explícita o implícita— a la incorporación de tecnologías digitales. Esta postura, sustentada en aprensiones éticas, inercias institucionales y déficits formativos, deviene problemática cuando se traduce en una falta de revisión de las propias prácticas. La limitada apropiación tecnológica no responde únicamente a la carencia de recursos, sino a una concepción restringida que percibe a la tecnología como un elemento ajeno o contrapuesto a la dimensión ética del Trabajo Social. Dicha desconexión contribuye a la reproducción de intervenciones poco sistematizadas, a la sobrecarga administrativa y a una subutilización de herramientas que podrían dotar de mayor profundidad al diagnóstico social y a la producción de conocimiento forense.

Es fundamental reconocer que las inteligencias artificiales exponen con nitidez tensiones legítimas. Las preocupaciones sobre la deshumanización, los sesgos algorítmicos y la privacidad de los datos deben ser atendidas mediante marcos éticos claros y regulaciones adecuadas. Sin embargo, una actitud exclusivamente defensiva corre el riesgo de profundizar una brecha tecnológica que impacta negativamente en la calidad de las respuestas profesionales en contextos institucionales complejos. En este sentido, la Cumbre de India 2026 y el "Consenso de Nueva Delhi" marcaron un hito en la gobernanza tecnológica global bajo el liderazgo de Narendra Modi. Este acuerdo, asentado en la soberanía de datos para el Sur Global, la inclusión digital mediante fondos para el desarrollo y el compromiso con la seguridad y el etiquetado digital para combatir la desinformación sitúa al Trabajo Social Forense en la vanguardia de una transformación necesaria.

En este escenario de cambio, resulta imprescindible reafirmar el carácter insustituible del trabajador social forense. Las competencias humanas fundamentales —como la empatía, la inteligencia emocional, la capacidad de interpretación contextual y el juicio crítico— constituyen el núcleo de la práctica y no pueden ser replicadas por sistemas automatizados. Por ello, las IA debe concebirse como una metatecnología de apoyo que potencia, pero jamás reemplaza, el criterio profesional. El horizonte propuesto es el de una ecología de saberes, donde el conocimiento situado y la experiencia se articulen con las capacidades tecnológicas de manera complementaria y crítica. Este camino exige una revisión profunda de las matrices formativas y el desarrollo de una alfabetización digital que permita utilizar la técnica de manera consciente y responsable.

Como ha señalado la Lic. Araujo (2025), el Trabajo Social se encuentra en un momento de redefinición de su rol. Si bien enfrentamos desafíos como la precarización en entornos virtuales, las tecnologías también abren espacios de especialización en ciberseguridad, mediación digital y promoción de la participación ciudadana. La profesión tiene el imperativo ético de promover la inclusión digital con un enfoque de derechos humanos, asegurando que las nuevas configuraciones laborales no reproduzcan lógicas de violencia simbólica.

En definitiva, la integración reflexiva de la inteligencia artificial permite al Trabajo Social Forense asumir una posición activa frente a los desafíos actuales, fortaleciendo sus principios humanistas mediante prácticas más rigurosas, fundamentadas y orientadas a la construcción de intervenciones más justas, equitativas y centradas en la persona.

 

 

 

 

Referencias - Bibliografía:

 

Referencias: 

 

Alkhattabi, M., Alhuthil, R., & Al Khatib, H. (2023). Applications of artificial intelligence in predicting the risk of child abuse: A literature review. *International Journal of Pediatrics and Adolescent Medicine, 10*(1), 1–6. https://doi.org/10.4103/ijpam.ijpam_5_23

Araujo, S. N. (2025). *Trabajo social y nuevas tecnologías sociales: Una invitación a repensar la praxis desde una perspectiva integral y ética* [Manuscrito inédito]. Cuerpo de Trabajadores Sociales Forenses, Poder Judicial de la Provincia de Corrientes.

Cabrera, C. (2024, 10 de octubre). “Estoy aquí para darte apoyo”: Violetta, Sophia y Sara, los chatbots que acompañan a víctimas de violencia machista. *El País*.

https://elpais.com/tecnologia/2024-10-10/estoy-aqui-para-darte-apoyo-violetta-sophia-y-sara-los-chatbots-que-acompanan-a-victimas-de-violencia-machista.html

Costa, F. G., Monaco, J. A., Covello, A., Novidelsky, I., Zabala, X., & Rodríguez, P. E. (2023). Desafíos de la inteligencia artificial generativa: Tres escalas y dos enfoques transversales. *Question/Cuestión, 3*(76), Article e844.

https://doi.org/10.24215/16696581e844

Fernández Paredes, S. P., García Prias, N. E., Chuncha Villa, K. R., & Chango Villa, Y. E. (2025). La inteligencia artificial en el trabajo social: Una propuesta de integración ética y productiva en la práctica profesional. *VERITAS – Revista Multidisciplinar, 6*(1), 1869–1880.

https://doi.org/10.61616/rvdc.v6i1.485

Instituto Nacional de Estadística y Censos. (2025). *Incidencia de la pobreza y la indigencia en 31 aglomerados urbanos. Primer semestre de 2025*.

https://www.indec.gob.ar

Tietoevry. (2018). *The City of Espoo: A unique experiment with AI*.

UNESCO. (2024). *Ética de la inteligencia artificial en América Latina*. París: UNESCO.

Garrett, P. M. (2026). ‘Magic moments’: AI and the ‘disappearance’ of social work ethics? British Journal of Social Work, 56, 377–395.

https://doi.org/10.1093/bjsw/bcaf230

Elish, M. C. (2019). Moral crumple zones: Cautionary tales in human-robot interactions. Engaging Science, Technology, and Society, 5, 40–60.

McQuillan, D. (2022). Resisting AI. Policy Press.

Dauvergne, P. (2022). Is artificial intelligence greening global supply chains? Review of International Political Economy, 29, 696–718.

Varon, J., & Peña, P. (2021). Artificial intelligence and consent: A feminist anti-colonial critique. Internet Policy Review, 10, 1–26.

Mohamed, S., Png, M.-T., & Isaac, W. (2020). Decolonial AI: Decolonial theory as sociotechnical foresight in artificial intelligence. Philosophy & Technology, 33, 659–684

Bauman, Z. (2000). Am I my brother’s keeper? European Journal of Social Work, 3, 5–11.

 

Bibliografía consultada 

Báguena Sancho, L., & Tolosa González, O. (2024, 20 de septiembre). Inteligencia artificial y servicios sociales. *Revista Sanitaria de Investigación*. https://revistasanitariadeinvestigacion.com/inteligencia-artificial-y-servicios-sociales

Barragán, X. (2023). Situación de la inteligencia artificial en el Ecuador en relación con los países líderes de la región del Cono Sur. *FIGEMPA: Investigación y Desarrollo, 16*(2), 23–38.

Benito, F. (2024, 20 de septiembre). La inteligencia artificial en los servicios sociales: Análisis predictivo e identificación de necesidades de intervención. Fundació iSocial.https://isocial.cat/es/la-inteligencia-artificial-en-los-servicios-sociales-analisis-predictiva-e-identificacion-de-necesidades-de-intervencion/

Booth, R. (2024, 28 de septiembre). Social workers in England begin using AI system to assist their work. *The Guardian*.

https://www.theguardian.com/society/2024/sep/28/social-workers-england-ai-system-magic-notes

Castillo, J., & Gómez, J. (2019, 4 de marzo). Big data para la investigación y la intervención social. Repositorio Institucional de la Universidad de Málaga.

https://hdl.handle.net/10630/17402

CEPAL. (2024). *Panorama social de América Latina*. Comisión Económica para América Latina y el Caribe

Consejo Provincial de la Mujer de Corrientes. (2025). *Informe anual sobre violencia de género e intrafamiliar*. Gobierno de la Provincia de Corrientes.

Corte Suprema de Justicia de la Nación. (2025). *Registro Nacional de Femicidios de la Justicia Argentina*. Oficina de la Mujer.

Cumbre Judicial Iberoamericana. (2025). *Código Ético Iberoamericano para el Uso de la Inteligencia Artificial en el Poder Judicial*.

Díaz González, J. (2025, 5 de enero). Así es AinhoAid, la nueva aplicación desarrollada por la Policía de Valencia para ayudar a las víctimas de violencia de género. *Cadena SER*. https://cadenaser.com/nacional/2025/01/05/asi-es-ainhoaid-la-nueva-aplicacion-desarrollada-por-la-policia-de-valencia-para-ayudar-a-las-victimas-de-violencia-de-genero-cadena-ser/

Egüez, G. (2020). *Análisis del desempeño de redes neuronales artificiales en la reconstrucción de datos pluviométricos de la ciudad de Quito* [Tesis de maestría, Universidad Andina Simón Bolívar]. Repositorio Universidad Andina del Ecuador.

https://repositorio.uasb.edu.ec/bitstream/10644/7461/1/T3258-MCCNA-Egüez-Análisis.pdf

ENACOM. (2025). *Informe sobre conectividad y brecha digital en Argentina*. Ente Nacional de Comunicaciones.

Eubanks, V. (2018). *Automating inequality: How high-tech tools profile, police, and punish the poor*. St. Martin’s Press.

European Commission. (2024). *European approach to artificial intelligence: Shaping Europe’s digital future*.

https://digital-strategy.ec.europa.eu/en/policies/european-approach-artificial-intelligence

Gillingham, P. (2016). Predictive risk modelling to prevent child maltreatment and other adverse outcomes for service users: Inside the ‘black box’ of machine learning. *British Journal of Social Work, 46*(4), 1044–1058.

https://doi.org/10.1093/bjsw/bcv031

International Federation of Social Workers. (2018, 2 de julio). *Global social work statement of ethical principles*.

https://www.ifsw.org/global-social-work-statement-of-ethical-principles/

KPMG International. (2024). *Privacidad en el nuevo mundo de la IA*.

Minguijón, J., & Serrano-Martínez, C. (2022). La inteligencia artificial en los servicios sociales: Estado de la cuestión y posibles desarrollos futuros. *Cuadernos de

Trabajo Social, 35*(2), 319–329.https://doi.org/10.5209/cuts.78747

Ministerio de Telecomunicaciones y de la Sociedad de la Información. (2021). *Proyecto: Diagnóstico sobre la inteligencia artificial en el Ecuador* (Documento final JC-JO-MS-002).

https://observatorioecuadordigital.mintel.gob.ec/wp-content/uploads/2022/11/Proyecto-diagnostico-inteligencia-artificial-IA-en-Ecuador-Documento-final-JC-JO-MS-002.pdf

Oliver, N. (2024). *Inteligencia artificial para el bien social*. ELLIS Alicante. https://ellisalicante.org/la-inteligencia-artificial-bien-social

Poder Judicial de Corrientes. (2024). *Protocolos de intervención en casos de violencia de género*. Dirección de Políticas de Género.

Red Iberoamericana de Protección de Datos. (2020). *Recomendaciones generales para el tratamiento de datos en Inteligencia Artificial*.

Reamer, F. G. (2023). Artificial intelligence in social work: Emerging ethical issues. *International Journal of Social Work Values and Ethics, 20*(2), 52–71. https://doi.org/10.55521/10-020-205

Russell, S., & Norvig, P. (2020). *Artificial intelligence: A modern approach* (4.ª ed.). Pearson.

Villa Benítez, C. P., Camacho Castro, C., & Bernal Domínguez, D. (2020). Análisis de datos como alternativa para la evaluación de impacto de los programas sociales. *Intersticios Sociales, (20)*, 13–48.

https://www.intersticiossociales.com/index.php/is/article/view/289

 

Poder Judicial de la Provincia de Corrientes

1. Arapy (Asistente Virtual)

 Año de lanzamiento: Mayo de 2022.

Autores/Origen: Desarrollado íntegramente por el Poder Judicial de Corrientes y el Ministerio Público.

Función: Es un chatbot disponible en WhatsApp y Telegram que guía a los ciudadanos en trámites, denuncias de violencia y consultas de causas. Fue la primera gran apuesta de atención ciudadana automatizada en la provincia.

2.  MEJU-IA (Asistente para Mediación)

Año de lanzamiento: 2025.

Autores/Origen: Una colaboración estratégica entre el Superior Tribunal de Justicia de Corrientes (liderado por el Dr. Fernando Niz) y la startup ODR Latinoamérica.

Función: Se define como un "copiloto inteligente" para mediadores. Ayuda a gestionar el proceso de resolución de conflictos y ofrece un campus virtual de formación con IA. Fue premiado nacionalmente por su enfoque humano.

3. Prometea (IA para Dictámenes)

Año de implementación en Corrientes: 2022 (bajo convenio).

Autores/Origen: Creada originalmente por el Ministerio Público Fiscal de la CABA y el IALAB de la UBA (Laboratorio de Innovación e IA de la Facultad de Derecho), dirigido por Juan Gustavo Corvalán.

Función: Automatiza la creación de dictámenes y resoluciones judiciales. En Corrientes, se ha aplicado con éxito en el Juzgado Contencioso Administrativo Nº 2 (Dra. Belén Güemes), reduciendo drásticamente los tiempos de redacción.

4. ArText y ChatGPT (Lenguaje Claro)

Año de inicio: 2022-2023.

Autores/Origen: Implementado originalmente por el Juzgado de Paz de Berón de Astrada (Dr. José Osvaldo Ledesma).

 

 

COMENTARIOS :: Complete el siguiente formulario

Curriculum
Currículum Vitae

Osvaldo Agustín Marcón es Postdoctorado en Principios Fundamentales y Derechos Humanos (Universidad de Ciencias Empresariales y Sociales, 2017); Doctor en Ciencias Sociales (Universidad Nacional de Entre Ríos, 2015); Magíster en Salud Mental (Universidad Nacional de Entre Ríos, 2009); Diplomado Superior en Ciencias Sociales (Facultad Latinoamericana de Ciencias Sociales, 2007); Especialista en Métodos y T ... Leer más
Comentarios
Newsletter
Suscribite al newsleter para recibir la información más completa sobre nuestro sitio Web

Diseño Web
Atención:Tu navegador es muy viejo. Para visualizar correctamente esta página necesitas la última versión de Internet Explorer ó Google Chrome