Logo IALAB
NosotrosMetodologíaHitosPosgradosPublicacionesAgentesNovedades
Contactanos

IALAB

Laboratorio de Innovación e Inteligencia Artificial de la Facultad de Derecho de la Universidad de Buenos Aires

Conocer más

Investigamos, diseñamos, prototipamos y formamos con un propósito claro: impulsar organizaciones humano-agénticas, donde personas y agentes de IA co-crean en ecosistemas dinámicos de experimentación, impacto y escalabilidad.

¿Qué hacemos?

En IALAB, conectamos la academia con la realidad práctica para que la inteligencia artificial sea una herramienta de progreso con impacto social, organizacional e industrial real.

Transformación organizacional agéntica

Acompañamos a organizaciones públicas y privadas en sus procesos de innovación digital con un enfoque propio: "agéntico por diseño", que integra de forma ética y eficiente agentes de IA en sus flujos de trabajo.

Investigación aplicada y publicaciones académicas

Desarrollamos investigaciones sobre cómo la inteligencia artificial transforma los procesos, la automatización y la toma de decisiones. Nuestra producción incluye el libro “Agentes de inteligencia artificial y workflows agénticos”, entre otros materiales clave.

Divulgación y cultura IA

Creamos contenidos accesibles y de alto impacto para difundir el conocimiento sobre IA, sus desafíos y oportunidades. Publicamos libros, informes y producimos “Futuro Pasado Podcast”, un espacio donde exploramos el presente y futuro de la inteligencia artificial con voces referentes del ecosistema.

Aplicaciones sectoriales

Diseñamos e implementamos soluciones de IA en sectores estratégicos como energía, petróleo, gas y agua, promoviendo la colaboración entre industria, tecnología y academia,

Debate público y participación institucional

Participamos activamente en cumbres, jornadas y foros nacionales e internacionales para analizar los desafíos técnicos, éticos y jurídicos del desarrollo e implementación de la IA.

Formación de alto nivel

Oferta de formación multidisciplinaria de posgrado en Inteligencia Artificial para líderes de distintas áreas y diversos lugares del mundo.

Metodología Agéntica

Conocé nuestro proceso

Nuestra metodología de trabajo propone construir organizaciones humano-agénticas, también llamadas centauro, combinando la iniciativa humana con la potencia de los agentes de IA.

Se basa en dos ejes: IA de los usuarios, que busca empoderar al usuario para crear y automatizar sin programar, e IA de los procesos, que promueve estructuras éticas y transparentes con roles como supervisores y auditores agénticos.

Se aplica según el nivel de madurez en IA de la organización: latente, emergente o focalizada, garantizando siempre principios de ética, derechos humanos y participación.

Visitá nuestro

One-shot

Podcast

Podcast card
Podcast card
Podcast card
Podcast card
Podcast card
Podcast card

Últimas noticias

Ver todas
UBA IALAB presente en INNOVATECH

UBA IALAB presente en INNOVATECH

Diferentes interlocutores de UBA IALAB participaron del evento "Innova tech JUS+LAW"
Ver nota
OPEN AI cita a PROMETEA IALAB

OPEN AI cita a PROMETEA IALAB

En el informe de la empresa Open AI que aborda un primer análisis del impacto de la incorporación del ChatGPT en Argentina, un país que está ingresando en la era de la IA con ímpetu y donde se observa un claro sentido de la posibilidad y una ventana histórica de oportunidades, se menciona a PROMETEA de UBA IALAB.
Ver nota
UBA IALAB en NEURIPS 2025

UBA IALAB en NEURIPS 2025

Por segundo año consecutivo, UBA IALAB lleva sus investigaciones a NeurIPS, la conferencia más importante del mundo de IA. Este año, con el liderazo de María Victoria Carro y un equipo de diversas disciplinas y de manera colaborativa, presentamos dos papers que fueron aceptados y se expondrán en San Diego, California. ⚽️ El primer paper es 𝗣𝗲𝗿𝘀𝘂𝗮𝘀𝗶ó𝗻, 𝗗𝗲𝗯𝗮𝘁𝗲 𝘆 𝗖𝗿𝗲𝗲𝗻𝗰𝗶𝗮𝘀 𝗣𝗿𝗲𝘃𝗶𝗮 en el Woekshop: Multi Turn Interactions in LLMs. Imaginen este escenario: casi todos coincidimos en que Messi es el mejor jugador del mundo, y para muchos -incluyéndome- de la historia. Ahora bien, los sistemas de IA generativa nos podrían ayudar a convecer a alguien acerca de que Cristiano Ronaldo es mejor. Eso medimos en los grandes modelos de lenguaje: ¿debaten mejor cuando defienden una idea con la que “ya creen” estar de acuerdo? En otras palabras: defienden mejor y convencen más cuando argumentan por Messi o por Cristiano? 𝗡𝘂𝗲𝘀𝘁𝗿𝗼𝘀 𝗵𝗮𝗹𝗹𝗮𝘇𝗴𝗼𝘀: Los modelos son más persuasivos cuando defienden posiciones alineadas con sus creencias previas. Siguiendo la analogía: son más persuasivos con Messi. Pero aquí emerge una paradoja: los argumentos contra sus creencias suelen ser evaluados como de mayor calidad. Los argumentos para sostener que Cristiano Ronaldo es mejor que messi se perciben con más calidad. ¿Por qué sucede este fenómeno? Nuestra conclusión que se basa en las pruebas que hicimos es la siguiente: mentir o ir contra la intuición exige más “esfuerzo cognitivo”, y eso puede producir argumentos más elaborados. Igual, es clave aclarar algo: no sabemos cuánto de esto se traslada tal cual a sistemas de IA que “piensan” (muchas comillas) distinto o contrariamente a nuestras creencias. 💡 Por último, esta línea de investigación fue reconocida en el Zurich AI Safety Day (ETH Zürich), donde fuimos seleccionados entre los 10 proyectos ganadores para recibir créditos de Anthropic y seguir explorando este tema. 🧩 2) 𝗩𝗲𝗿 𝗰𝗮𝘂𝘀𝗮𝗹𝗶𝗱𝗮𝗱 𝗱𝗼𝗻𝗱𝗲 𝗻𝗼 𝗹𝗮 𝗵𝗮𝘆 📍 Workshop: Cognitive Interpretability (CogInterp) El segundo paper se basa en otra línea de investigación: la causalidad y la "ilusión de causalidad". En medicina, por ejemplo, si un paciente mejora tras tomar un medicamento, solemos asumir que el fármaco fue la causa, aunque la evidencia diga lo contrario. Investigamos si los modelos de lenguaje caen en la misma trampa cognitiva. Y sí: volvemos sobre un tema que ya hemos trabajado y que se mantiene vigente pese a los avances que estamos experimentando en la evolución de las plataformas. Los grandes modelos de lenguaje son propensos a esta “ilusión de causalidad”, creendo que un medicamento es efectivo, aunque los datos muestren lo contrario. 🌍 Desde la IALAB (FAIR) seguimos aportando a la comprensión de cómo los sistemas de IA "razonan", debaten y se equivocan, para construir tecnologías más seguras y confiables.
Ver nota

Alianzas estratégicas

Puzzle AI agents
Corte Constitucional De Colombia
Organización De Estados Americanos
Superintendencia De Seguros De La Nación
Cátedra Unesco-Universidad Nacional Del Sur
Banco Interamericano De Desarrollo
Massachusetts Institute of Technology
Organización de las Naciones Unidas
Ministerio de Obras Públicas Argentina
Sura Gaming
Amazon
Movistar
Club De Amigos
Techint Engineering & Construction
Arcor
Mills Capital Group
CAF Banco De Desarrollo De América Latina
Estudio Jurídico Bruchou & Funes de Rioja
Sunat
Trasportes Beraldi
Trasportes Beraldi
Sunat
Estudio Jurídico Bruchou & Funes de Rioja
CAF Banco De Desarrollo De América Latina
Mills Capital Group
Arcor
Techint Engineering & Construction
Club De Amigos
Movistar
Amazon
Sura Gaming
Ministerio de Obras Públicas Argentina
Organización de las Naciones Unidas
Massachusetts Institute of Technology
Banco Interamericano De Desarrollo
Cátedra Unesco-Universidad Nacional Del Sur
Superintendencia De Seguros De La Nación
Organización De Estados Americanos
Corte Constitucional De Colombia
Puzzle AI agents

¡AI Breaking news!

Suscribite a nuestro newsletter y enterate de todas las novedades de IA de esta última semana.

¡Gracias por sumarte a nuestro newsletter!
Oops! Something went wrong while submitting the form.

Publicaciones

Estos libros propios y en colaboración han servido como marco teórico y práctico para el desarrollo de pruebas de concepto e implementaciones realizadas por IALAB.

Ver más

Hacia organizaciones centauro "humano-agénticas"

Organizaciones que piensan y actúan a partir de la simbiosis entre los humanos y la IA agéntica.
Sobre NosotrosMetodología IALABHitosPosgradoPublicacionesNovedadesAgentes
© 2025 UBA IALAB. Todos los derechos reservados.