Skip to content

Una mirada amplia a la inteligencia artificial

Compartir

Compartir en facebook
Compartir en linkedin
Compartir en twitter
Compartir en pinterest
Compartir en email

Por Rachel Lomasky. Este artículo fue publicado originalmente en Law & Liberty.

En el último año, la inteligencia artificial se ha convertido en un tema de gran interés y preocupación pública. Esto se debe principalmente a los nuevos modelos de IA generativa, como ChatGPT y Bard, que han hecho que la IA reciba una atención y una adopción sin precedentes. Por primera vez, es fácil para el gran público utilizar modelos de aprendizaje automático. El fenómeno es de tal envergadura que Rolling Stone cubrió el despido de Sam Altman, CEO de OpenAI, como si fuera una noticia de famosos. Los capitalistas de riesgo están invirtiendo dinero en Gen AI, a pesar de la debilidad general de las condiciones macroeconómicas.

Mientras tanto, destacados científicos de la IA proclaman: «La IA avanzada podría representar un cambio profundo en la historia de la vida en la Tierra». Los medios de comunicación están llenos de predicciones contradictorias según las cuales la IA nos quitará el trabajo, destruirá nuestra creatividad, luchará contra nosotros con robots asesinos y abolirá los trabajos trimestrales (esto último podría ser un riesgo menos existencial). Todo esto se suma a la preocupación de que la IA clásica sea sesgada y prejuiciosa.

Los recientes avances en IA son realmente significativos, pero la hipérbole es exagerada. La IA de nueva generación supera la prueba de Turing, de forma relativamente incontrovertible, y también está superando pruebas destinadas a medir el conocimiento humano, como el LSAT y los exámenes AP. Obedece a la Ley de Amara, que afirma: «Tendemos a sobreestimar el efecto de una tecnología a corto plazo y a subestimar su efecto a largo plazo». La IA seguirá su curso actual, en su mayor parte mundano y algo encantador, pero el ritmo se acelerará.

La trayectoria de la IA Gen es prometedora, pero sería un gran error extrapolar demasiado lejos. No es la primera vez que la gente se preocupa de que la inteligencia artificial de nivel humano pueda estar a la vista. En 1950, Turing creía que faltaban unos 50 años para la llegada de los ordenadores con 5 MB de memoria. Minsky pensaba que la IA Gen surgiría en torno a la década de 1990, para lo que entonces faltaban unos 30 años. Cuando Deep Blue venció a Kasparov, Newsweek lo llamó «La última batalla del cerebro». A estos pronunciamientos siguieron tiempos de escasos avances, los llamados «inviernos de la IA». Esta exageración recibe el nombre de «Efecto Eliza», en el que las capacidades de lenguaje natural de la IA, a menudo meras reglas inteligentes codificadas, provocan un optimismo excesivo sobre la IA en general.

Los medios de comunicación se centran en la IA Generativa, pero la mayoría de las aplicaciones públicas y extendidas son poco más que envoltorios de los modelos fundacionales, como ChatGPT y Bard. En realidad, los modelos menos llamativos, los modelos clásicos de aprendizaje automático, están teniendo un efecto mucho más significativo. Casi toda la IA en producción utiliza algoritmos tradicionales, como la regresión lineal o los árboles de decisión. Están integrados en aplicaciones, productos y servicios que realizan tareas prosaicas como tarificar billetes de avión, detectar transacciones fraudulentas, aumentar la eficiencia de la red energética para reducir las emisiones, recomendar productos similares, elaborar automáticamente listas de reproducción, personalizar anuncios en las redes sociales y proporcionar predicciones meteorológicas mejores y de mayor alcance. En gran medida pasan desapercibidas en segundo plano, entre bastidores.

Por ejemplo, el público no es consciente de los grandes avances, pero en gran medida inobservables, de la IA en la industria manufacturera, como la optimización de los procesos de producción, la mejora del control de calidad, una mejor programación de las líneas de producción y la detección automática de defectos en los productos. Esto ha mejorado la calidad de los productos, ha reducido su precio y ha aumentado su seguridad. Por supuesto, la incorporación de estas tecnologías a las nuevas plantas también ha sustituido mano de obra no cualificada por informáticos e ingenieros altamente cualificados. Las implicaciones sociales son complicadas.

Además, aunque evidentemente no son un sustituto equivalente de los profesionales, las IA ofrecen servicios que antes sólo estaban al alcance de los expertos, por ejemplo, servicios de orientación y asesoramiento financiero, así como Khan Academy, Duolingo y otras herramientas similares. Estas plataformas democratizan estos servicios, aumentando enormemente la disponibilidad y asequibilidad, y a menudo incrementando la personalización. Dado que incorporan mecanismos de crowdsourcing y retroalimentación tácita, se adaptarán automáticamente con la retroalimentación implícita y explícita, y seguirán mejorando.

Los pequeños dispositivos «periféricos», en lugar de los grandes servidores, también son lo suficientemente potentes para ejecutar algoritmos de IA, como los robots aspiradores, las aplicaciones de mapas de nuestros teléfonos y, por supuesto, el dispensador de jabón con Alexa. El uso de la IA en los bordes, con sensores y cámaras de alta resolución que proporcionan mejores datos a los algoritmos, también permite a los algoritmos de los coches autoconducidos manejar situaciones cada vez más complejas. A medida que el borde se vuelve más potente, también lo hará la capacidad de nuestros dispositivos para personalizar nuestras experiencias con ellos.

El aprendizaje automático ha hecho incursiones en la atención sanitaria, ofreciendo herramientas de diagnóstico impulsadas por IA, el tedioso proceso de concertar citas y gestionar los historiales de los pacientes, así como la personalización de los planes de tratamiento y los medicamentos. La investigación en IA ha acelerado el trabajo que hay detrás del descubrimiento terapéutico, por ejemplo, el descubrimiento de nuevos fármacos y la fabricación de dispositivos médicos.

Tanto en Gen AI como en el aprendizaje automático clásico, los modelos mejoran a medida que incorporan más y mejores datos. Entre los modelos populares de Gen AI, los diversos conjuntos de datos de entrenamiento incluyen libros, sitios web, conversaciones en redes sociales y código informático. Por ejemplo, aunque los detalles de los datos de entrenamiento son confidenciales, OpenAI ha compartido que ChatGPT 3.5 es más conversacional porque se entrenó con aproximadamente un tercio más de datos que 3.0, incluyendo más datos de diálogo. En GPT 4.0 han continuado esta tendencia, incluyendo no sólo 25 veces más datos, sino también una mayor diversidad de fuentes, incluidas imágenes. Así pues, la carrera por mejorar la Gen AI será una carrera por adquirir más datos y nuevas fuentes de datos, como sensores, dispositivos inteligentes, redes sociales y vídeos.

El Aprendizaje por Refuerzo a partir de la Retroalimentación Humana (RLHF) es una parte vital de los modelos de última generación. Los humanos guían los modelos con ejemplos del resultado deseado. Esto es muy superior a los métodos utilizados anteriormente, en los que la IA se retroalimentaba a sí misma, y ha permitido mejorar el rendimiento, la fiabilidad y la seguridad. Sin embargo, también es costoso emplear a los formadores. Se sigue trabajando en las IA genéricas, reduciendo las alucinaciones, aumentando el rendimiento y protegiéndolas contra ataques de adversarios.

Los modelos actuales son de propósito general, diseñados para dar a los usuarios la experiencia de hacer todas sus preguntas a la persona más inteligente de la sala. Se está investigando el desarrollo de modelos especializados, que darían a los usuarios una experiencia equivalente a formular ciertas preguntas a mecánicos y médicos. Varios modelos se están utilizando para hacer avanzar la ciencia. AlphaFold fue una de las primeras Gen AI en ganar fama al predecir la estructura de plegamiento de las proteínas, un paso clave para identificar compuestos interesantes para convertirlos en medicamentos, pesticidas y otros productos químicos. ChemBERT ofrece un servicio similar para predecir qué compuestos podrían servir como dianas útiles para terapias y otros usos. Estos modelos aumentan la eficiencia de la ciencia al empezar a divorciarla de los costosos y lentos experimentos de laboratorio. Los beneficios serán increíbles en los próximos años.

Control de Gen AI

El coste de entrenamiento de un modelo de Gen AI supera ya los 100 millones de dólares y crecerá con la complejidad del modelo. Para entrenar los modelos se necesita un hardware caro y de alta gama. Además, la adquisición de datos es costosa, sobre todo a medida que se procesan fuentes de datos más difíciles. Los costes adicionales incluyen la remuneración de las personas dedicadas al RLHF e incluso la electricidad del hardware de entrenamiento e inferencia. Por lo tanto, el proceso de entrenamiento de la IA Genética sigue estando firmemente en el dominio de las grandes corporaciones y de las organizaciones sin ánimo de lucro extremadamente bien financiadas.

Esto limita enormemente quién puede producir y controlar modelos. Como las respuestas de estos modelos dependen en gran medida de sus datos de entrada, están sesgados por naturaleza, aunque potencialmente de forma accidental. Además, a algunos les preocupa que las empresas puedan obstaculizar el acceso a los modelos, aunque actualmente hay suficiente competencia como para que esto no parezca un riesgo inminente. Del mismo modo, especialmente con la falta de responsabilidad de las Gen AI, preocupa la privacidad y la seguridad de estos modelos.

Los modelos de código abierto compiten con los modelos propietarios. Están preentrenados, por lo que el usuario se ahorra el gasto y el esfuerzo de entrenar un modelo por sí mismo. Generalmente se publican bajo licencias que permiten al público utilizarlos gratuitamente, modificarlos y compartirlos con otros. El uso comercial suele estar restringido, aunque no siempre. El código abierto implica una responsabilidad compartida para ayudar a mantener el modelo sugiriendo mejoras y corrigiendo errores. Sin los modelos de código abierto, unas pocas empresas dominarían el mercado de los modelos fundacionales. Por ello, existe un gran interés en apoyar y mantener la comunidad de código abierto para los LLM, con el fin de garantizar que el acceso se democratice.

La comunidad de código abierto de Gen AI prospera actualmente en Hugging Face, que alberga modelos, puntos de referencia y debates. La comunidad de código abierto seguirá siendo fuerte, pero sigue siendo una incógnita si el rendimiento alcanzará al de los modelos patentados debido al gasto que supone su formación. Las empresas privadas han contribuido mucho menos a los LLM de código abierto. Google, antes famosa por publicar ciencia fundacional en torno a las Gen AI, ha dejado de hacerlo recientemente. Su trabajo anterior, como Attention Is All You Need, fue suficiente para poner en marcha la Gen AI.

Por supuesto, los modelos fundacionales son sólo eso: cimientos. Aunque sólo unos pocos pueden entrenarlos, son públicamente accesibles a través de interfaces. Un enorme ecosistema de empresas está creando aplicaciones que aprovechan los modelos. Al mismo tiempo, también están construyendo herramientas para afinarlos y para impulsarlos y gestionarlos mejor en producción. Así pues, aunque el código abierto no se ponga al día, un mercado vivo y competitivo para los modelos patentados podría ser suficiente.

IA responsable

La IA irresponsable puede ser profundamente maliciosa, permitiendo la guerra automatizada, la vigilancia, la censura y la propaganda. Pero, por lo general, las IA que se comportan mal son simplemente incompetentes o imbéciles. Los errores que cometen pueden hacer que un sistema de selección de currículos rechace a personas de un determinado grupo demográfico o que un sistema de control de servicios públicos deje de ser fiable. Estos riesgos ubicuos son mucho más frecuentes que los temores existenciales extremistas que acaparan la atención de los medios de comunicación. Los humanos tienen muchos de los mismos problemas que las IA, como la parcialidad y la incompetencia, pero como las IA suelen cometer errores distintos a los de las personas, aportan un elemento adicional de imprevisibilidad.

Con el creciente poder y prevalencia de los sistemas de IA, tanto los gobiernos como los ciudadanos exigen iniciativas de IA Responsable (RAI) para garantizar que se desplieguen de forma segura y ética. Reclaman una serie de cosas, desde directrices a políticas corporativas, pasando por una regulación estricta. Las preocupaciones a menudo se solapan con los problemas de Big Data, por ejemplo, la privacidad y el consentimiento, y también hay preocupación por las decisiones sesgadas, que exigen transparencia y explicabilidad de los modelos. Varias organizaciones, como el NIST y el Instituto del Futuro de la Vida, han formulado directrices sobre la elaboración de modelos éticos, incluidos los procesos de gobierno humano necesarios.

Como ejemplo ilustrativo, las cámaras de tráfico, los sensores y los dispositivos GPS generan cantidades ingentes de datos de la infraestructura de transporte. Esto se aprovecha para medir el tráfico actual y predecir el futuro, lo que a su vez permite a estos dispositivos ayudar a que el tráfico sea más eficiente y seguro optimizando la sincronización de los semáforos, ajustando las velocidades en las señales de límite de velocidad variable y desviando el tráfico (y los vehículos de emergencia) en caso de accidente o congestión. El resultado es una reducción significativa de los tiempos de viaje y del consumo de combustible y, por tanto, de las emisiones. Pero, por supuesto, también hay graves problemas de privacidad derivados de la vigilancia y el seguimiento exhaustivos de la movilidad, incluidos métodos más comprometedores para la privacidad que harían que los coches compartieran su posicionamiento en tiempo real.

Las empresas quieren crear modelos éticos para mantener su reputación, lo que incluye evitar titulares perjudiciales sobre parcialidad. Sin embargo, la aplicación de la RAI es complicada, sobre todo en el caso de los algoritmos más avanzados, que suelen ser los más eficaces y, por tanto, los preferidos. Remediar los sesgos detectados a través de la auditoría de los modelos puede ser difícil porque los modelos perpetúan en su mayoría los prejuicios de los datos sobre los que se han entrenado. Cambiar los datos de entrenamiento subyacentes puede resultar caro y a veces imposible. También suele haber muchas personas implicadas en la implementación de aplicaciones creadas con IA, lo que dificulta la auditoría y la posterior atribución de responsabilidades y culpas. Asimismo, el rápido progreso de la IA dificulta que los marcos y las normativas sigan el ritmo.

Los esfuerzos en IA tenderán a garantizar la responsabilidad, independientemente de los esfuerzos normativos. Las empresas tratarán de crear modelos fiables y justos como una cuestión de buena política corporativa, sobre todo en sectores sensibles como la sanidad, las finanzas y la justicia penal. Los deseos de RAI no serán categóricamente diferentes de los deseos de las empresas de ser justas e imparciales en otros ámbitos. Para evitar el riesgo de pasar vergüenza, las organizaciones buscarán la transparencia en sus algoritmos. Sin embargo, dado que el rendimiento de los modelos suele estar reñido con la explicabilidad, los esfuerzos por implantar la RAI se verán atemperados.

La supervisión humana desempeñará un papel importante a la hora de garantizar la RAI en empresas y gobiernos. Ya hay pánico a que la IA manipule las próximas elecciones estadounidenses, desde las redes sociales hasta los vídeos deepfake. La población se volverá más sofisticada a la hora de detectar estas manipulaciones, del mismo modo que ha aprendido a buscar imágenes manipuladas con Photoshop. Del mismo modo, las organizaciones convergerán en unos pocos estándares aceptados, de forma similar a lo ocurrido con la privacidad de los datos.

Una posible solución para reducir la carga de la supervisión humana es la IA constitucional. Los humanos establecen una «constitución» que contiene un marco de directrices éticas, que luego se codifican en algoritmos y restricciones técnicas. Los modelos se entrenan utilizando conjuntos de datos que se ajustan a los valores constitucionales, al tiempo que se evalúa su adhesión a los principios constitucionales. La supervisión para determinar si han seguido la constitución puede ser evaluada por una IA independiente que es auditada periódicamente por un humano. Por ejemplo, los humanos pueden establecer directrices éticas para la toma de decisiones en materia de justicia penal, y utilizar tanto algoritmos clásicos como LLM para determinar si se han cumplido. Ocasionalmente, habrá un proceso de revisión para garantizar su cumplimiento.

Hay bastante histeria en torno a la inteligencia general, en la que las inteligencias artificiales aprenderían y realizarían todas las tareas intelectuales al nivel de un ser humano. Anteriormente, las estridentes advertencias sobre el riesgo existencial de esto emanaban de los márgenes de la sociedad, pero ahora las están lanzando destacados miembros de la comunidad investigadora. Lo que falta en estas advertencias es una explicación creíble de cómo podría ocurrir, o por qué una IA no podría desconectarse a la primera señal de problemas. Prevalece el principio de precaución, que insta a hacer una pausa o incluso a interrumpir la investigación. Esta histeria distrae del riesgo concreto y actual de que la IA viole la privacidad, tome decisiones prejuiciosas, etc.

Aunque se trata más de un problema de Big Data que de un problema específico de la IA, los tribunales estadounidenses han empezado a conocer casos sobre la aplicación de los derechos de autor en los contenidos generados por la IA Gen. Sin un rastro claro del contenido de origen, lo que es muy difícil en el entrenamiento de la IA Gen, es difícil determinar si las IA Gen están creando «obras derivadas infractoras». Por supuesto, esta es una zona gris también para los artistas humanos, que se inspiran unos en otros. La Oficina de Derechos de Autor de EE.UU. ha dictaminado que la autoría humana es necesaria para los derechos de autor. En los próximos años, veremos a gente luchando contra los desafíos técnicos y legales, intentando proteger sus contenidos para que no se añadan a los modelos.

Los países tienen diferentes enfoques reguladores de la IA. Australia, Israel, el Reino Unido y la India aplican las leyes de privacidad existentes para regular la IA. Muchos países, como Singapur y los de la UE, están debatiendo una regulación adicional específica de la IA. Algunos países, como Francia y Cuba, prohíben directamente determinados servicios de IA, como los LLM. El gobierno de EE.UU. se limita actualmente a publicar directrices, aunque existe el riesgo de que el país cuente con una colección dispar de leyes estatales, lo que crearía un panorama normativo complicado. Naturalmente, las empresas que desarrollen aplicaciones basadas en IA evitarán desarrollar y vender en zonas con una regulación vaga y confusa, una tendencia que ya se observa en la inversión de capital riesgo en estas regiones.

Preocupación por el empleo

Es comprensible que mucha gente esté preocupada por el efecto de la IA en la mano de obra. Esto a veces establece un falso binario entre los beneficios de la IA y los beneficios del empleo. Pero la pregunta «¿Nos quitará el trabajo la IA?» es más acertada si se plantea como una cuestión de cómo utilizarán los humanos la IA para hacer su trabajo. La IA se encargará de tareas muy repetitivas que no requieren creatividad, pero sólo en contadas ocasiones desaparecerán puestos de trabajo enteros.

Durante la mayor parte de la historia de Estados Unidos, aproximadamente el 5% de los puestos de trabajo han quedado obsoletos cada año. Hay algunas excepciones, como cuando los robots sustituyen a los humanos en tareas peligrosas, o en situaciones en las que son necesarios tiempos de respuesta más rápidos. Estos cambios son la continuación de una tendencia que dura ya más de medio siglo, a medida que los ordenadores se encargan de las tareas rutinarias más complicadas y los humanos de las versiones más complejas. Como el ritmo de la innovación se ha acelerado, la preocupación es que el ritmo de destrucción de empleo también aumente. Es sabido que la innovación es difícil de predecir, pero es probable que se vea contrarrestada por el ritmo más rápido de creación de puestos de trabajo a partir de la IA.

Muchos de los nuevos servicios de IA, desde los chatbots a las cajas automáticas, son estrictamente menos buenos que un humano que preste el mismo servicio. También tenemos prejuicios inherentes que nos llevan a juzgar los errores humanos como menos malos que los de la IA. Preferimos que nos diagnostique un médico humano menos preciso que una IA. También es cierto que la IA puede tener un impacto desproporcionadamente negativo en determinados grupos demográficos o tipos de trabajadores. El ritmo acelerado dificulta el reciclaje y la recualificación de los trabajadores en el momento oportuno. Del mismo modo que la hoja de cálculo sustituyó al empleado de contabilidad pero aumentó la demanda de contables, la IA sustituirá gran parte del trabajo del asistente jurídico, pero menos del abogado.

Para muchos trabajadores, la Gen AI será un copiloto que pondrá en marcha el proceso creativo. Un creador de contenidos, ya sea un agente inmobiliario que redacta un anuncio o un estudiante que escribe un trabajo, puede empezar con material proporcionado por el modelo y luego iterar, como se hacía con una entrada de enciclopedia. Por supuesto, estos modelos siguen teniendo serias limitaciones, sobre todo en lo que se refiere a la diversidad de estilos. El primer «Escribe un poema sobre…» de ChatGPT es increíble. El quinto se parece mucho a los cuatro anteriores.

Las investigaciones preliminares demuestran que la IA aumenta la productividad, como cuando ChatGPT ayuda con la escritura de nivel medio. Una dinámica similar puede observarse en algunos campos STEM. Aunque tiene las capacidades de un ingeniero de nivel básico, GitHub CoPilot también ayuda a escribir código. Así, los LLM pueden depurar código y escribir funciones sencillas, pero estamos lejos de que la máquina sea capaz de reescribir mejor su propio código, la llamada Singularidad.

La perspectiva de que la IA Gen sustituya a artistas y escritores también ha causado una preocupación generalizada. Se puede debatir si el arte de la IA es realmente creativo, pero lo cierto es que ha pasado de la imitación directa a la creación de obras más novedosas. Como resultado, es probable que cambie el tipo de arte que hacen los humanos.

La llegada de la cámara no destruyó la pintura, pero la hizo menos común. También creó el arte completamente nuevo de la fotografía. Para pruebas documentales o imágenes rápidas, gana la fotografía. Para las emociones profundas o el arte abstracto, la pintura sigue dominando. Además, el acto de pintar sigue teniendo valor para el ser humano, independientemente de cómo se compare con el equivalente creado por la máquina. Es probable que en el futuro encontremos pautas similares en el uso de los contenidos creados por la IA y los creados por el ser humano.

Aún no hay comentarios, ¡añada su voz abajo!


Añadir un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Más artículos

Trump 2.0: la incertidumbre contraataca

A Trump lo han encumbrado a la presidencia una colación de intereses contrapuestos que oscilan entre cripto Bros, ultraconservadores, magnates multimillonarios y aislacionistas globales. Pero, este es su juego, es su mundo, él es el protagonista.

Juego político en torno a Muface

La caída de Muface crea el caldo de cultivo perfecto para acusar a las autonomías (la mayoría del PP) de no invertir lo suficiente en sanidad.