El pasado 10 de junio en la WWDC 2024 Apple dio a conocer su apuesta por la inteligencia artificial (IA). La firma liderada por Tim Cook presentó Apple Intelligence, un sistema que aterrizará iOS 18, iPadOS 18 y macOS 15 Sequoia para permitir a los usuarios desde reescribir textos hasta generar imágenes de diferentes estilos, aunque el fotorrealismo quedará fuera de la ecuación por cuestiones de seguridad.
No es ningún secreto que muchas personas ―y un sector de la industria tecnológica― llevaban tiempo esperando con expectación este movimiento por parte de Apple. Después de todo, algunas de las compañías más importantes del planeta ya habían mostrado sus cartas en el juego de la IA. El anuncio, como era de esperar, generó opiniones dispares, pero el descontento de algunos no ha pasado desapercibido.
Los usuarios creativos de Apple quieren respuestas
Engadget señala que ciertos usuarios creativos de la firma de la manzana están molestos con la “falta de transparencia” que envuelve el funcionamiento de Apple Intelligence. El quid de la cuestión es la escasa información oficial que hay acerca de los datos utilizados por Apple para entrenar sus modelos de inteligencia artificial, un escenario que, cabe señalar, podríamos describir como el común denominador de la industria.
Como sabemos, los modelos de IA necesitan “alimentarse” de una ingente cantidad de datos. Estos datos, en líneas generales, son la fuente de información a través de la que pueden conocer cualquier tema del para más tarde brindar respuestas. Apple dice que ha entrenado sus modelos de IA con AppleBot. Estamos hablando básicamente de un sistema de web scraping que “raspa” la web para extraer información.
La firma dice que toma datos de la “web abierta”, aunque no ha ofrecido detalles sobre esto. Aquí surgen varias preguntas, por ejemplo, si se incluyen contenidos protegidos por derechos de autor o existen filtros. En cualquier caso, Apple sí ha dicho que su bot cumple a rajatabla las directivas de los archivos robots.txt para no incluir determinadas páginas en su actividad de raspado para impulsar su IA generativa.
Apple no ha dudado en explicar en profundidad sus esfuerzos para proteger la privacidad y la seguridad de los usuarios que utilicen tanto su sistema de inteligencia artificial como el de OpenAI a través de ChatGPT. Sin embargo, creativos como fotógrafos, diseñadores, escritores, entre otros, sospechan que parte de sus obras pueden haber sido incluidas en el entrenamiento de Apple Intelligence sin su consentimiento.
Como decimos, el caso de Apple no es único. En la industria de la IA hay muchos otros ejemplos de compañías que son reacias a la hora de hablar del entrenamiento de sus modelos. Si nos enfocamos en OpenAI, no sabemos a ciencia cierta con qué datos han sido entrenados GPT-4 y Sora. En el caso de Stable Diffusion sabemos que ha sido entrenado con conjuntos de datos recopilados por la organización sin ánimos de lucro LAION.