Entrevista a RMS sobre Inteligencia Artificial ////////////////////////////////////////////// - Antes de hacerle algunas preguntas específicas referente al software libre, quisiera realizarle algunas más generales sobre lo que es la inteligencia artificial, visto que que esta demuestra una fuerte evolución. ¿Qué piensa de la inteligencia artificial, del uso de masas de la inteligencia artificial? RMS: Debemos hablar primero de lo que no es "inteligencia artificial", pusto que este término es uno propagandístico cuyo sentido es confundir, ya que mezcla dos cosas diferentes, que para nuestro entendimiento son totalmente distintas y que nunca deben mezclarse juntas. Yo defino inteligencia como la habilidad de comprender y entender cosas, tal vez dentro de cierto dominio limitado. Al existir sistemas artificiales que pueden comprender cosas y entenderlas, pienso que es adecuado denominarlos "inteligencia artificial". Pero estos no incluyen los programas de los cuales usualmente hablan ahora. Hoy en día la gente menciona a los Grandes Modelos de Lenguaje, y estos no son inteligentes: no pueden saber nada, no pueden entender nada, ni tienen medios para hacerlo. Sabemos como funcionan: no comprenden la semántica del texto con el que juegan, todo lo que pueden hacer es jugar con texto. Comparan grandes cantidades de texto, y se dicen "¿cuál texto conecta? intentaré esto". Eso es todo en cuanto a entendimiento en lo referido al texto que generan. De modo que no es inteligencia artificial, y este es un punto importante - el mas importante, diría. El término "inteligencia artificial" está siendo empleado actualmente como terminologia de márketing por commpañías de negocios para confundir aquellos sistemas con alguna inteligencia con otros sin inteligencia, con la finalidad que la gente considere que los chatbots guardan comprensión de sus textos de salida, aunque no los comprendan para nada en realidad. - ¿Así que le gustaría usar el término Grandes Modelos de Lenguaje? RMS: Si estamos hablando de Grandes Modelos de Lenguaje, llamémoslos de esa forma, y asegurémonos de jamás utilizar el término "Inteligencia Artificial", puesto esto supondría que esta incluye a los Grandes Modelos de Lenguaje. Verá, existen sistemas de inteligencia artificial que entienden algunas cosas, aprenden y comprenden ciertas cosas dentro de un dominio dado. En 1975, cuando me desempeñaba en el Laboratorio de Inteligencia Artificial del MIT, trabajé junto al Prof. Sussman, y desarrollamos allí un programa de inteligencia artificial que podía comprender el comportamiento de circuitos eléctricos. Pero en lugar de recurrir a resolver una gran cantidad de ecuaciones, el programa lo hacía en la forma en la cual lo haría un ingeniero eléctrico humano. Verá, existen reglas ciertas que abarcan los circuitos electrónicos: si tiene un conjunto de cables que confluyen a un punto, la corriente que entra debe ser igual a la que sale... responde a un requerimiento físico... tenemos la Ley de Ohm: "el voltaje a través de una resistencia iguala la resistencia multiplicada por la corriente que la atraviesa"... Bueno, este programa conoce cómo aplicar estas leyes dadas y deduce voltajes, corrientes, resistancias - o cualquier cosa no especificada previamente - recurriendo a la aplicación de la Ley de Ohm y otras muchas leyes. Las aplica una tras otra hasta entender el circuito. Lo interesante, sin embargo, era la manera en la que soluciona el caso de los transistores, considerando que estos no involucran una simple función de entrada-salida sino que responden a varios estados posibles. Según cierto conjunto de condiciones, determina uno entre estos estados. El programa trabaja de la siguiente manera: conoce cuáles estados son parte posible de distintos tipos de transistor, y de entre ellos supone uno; si encuentra una contradicción determina que la suposición es incorrecta, y supone otro caso de estado diferente para el mismo transistor. Ante las condiciones deducidas, hace esto abarcando todo el circuito en lo referente a los muchos transistores que podía tener. De fallar, sabía que se encontraba ante un conjunto de suposiciones erradas y buscaba otras distintas a la ya supuestas, o si eran correctas, entonces las validaba. Esta técnica se denomina "retroceso dirigido por dependencia". De esta manera inteligente - bastante parecida a la forma en la que lo haría un ingeniero humano - este programa puede entender un circuito, y de hecho, yo mismo aprendí cómo entender circuitos electrónicos imitando lo que hacía el programa. (...) - No hay un término en nuestro idioma para Gran Modelo de Lenguaje. Es el modelo el que es grande, no es que lo grande es el lenguaje. El idioma inglés es muy grande, el italiano también, el punto es que el lenguaje no es grande, es el modelo el que lo es. Cuando la gente oye de estos grandes modelos de lenguaje, suponen que son inteligentes, y luego ven texto generados por uno, ¡y lo creen!. Asumen que este programa entiende el texto que genera, pero jamás lo hacen. Si usted asume que el programa entiende, entonces se preguntará cómo es posible que cometa errores estúpidos, pues los cometen todo el tiempo. A menudo errores obvios, pero existen casos peores cuando cometen errores no tan obvios. Por ejemplo, tenemos este caso del abogado que solicitó a uno de estos chatbot: "deme un listado de decisiones legales pertinentes para apoyar este caso". y el chatbot inventó referencias plausibles de casos inexistentes. El abogado se dijo a sí mismo: "puesto que es una inteligencia artificial, debe saber", e introdujo todas las conclusiones en su portafolios y las presentó para su caso. Una vez descubierto que esos casos no existían, el juez se rió de él: era texto ficticio que tan sólo sonaba adecuado. Todo lo que un Gran Modelo de Lenguaje puede hacer es fabricar texto que suene plausible. El hecho que sea correcto o no escapa de la comprensión de un gran modelo de lenguaje, no están diseñados para hacerlo. No tienen idea de la semántica. - Y desde su punto de vista, ¿cómo se sostiene esto éticamente? RMS: Bueno, tal vez sea tolerable tener grandes modelos de lenguaje en existencia, provisto que nadie crea aquello que estos generan. El primer paso es negarnos a referirnos a ellos como "inteligentes". Ese es el motivo por el que - cuando alguien lo hace - objeto inmediatamente, ya que es el punto más importante, el primero. Todos deben saberlo. Yo sugeriría que debería existir legislación que sostenga que cuando hay algo generado por un gran modelo de lenguaje se requiera advertir: "esto fue generado por un gran modelo de lenguaje", a fin de que no se asuma que es verdad. - Como cambió su estilo de vida desde que estos modelos fueron introducidos? RMS: No tengo idea. Mi estilo de vida no cambió, excepto que ahora presto mayor atención y llamo la atención a la gente de que el término que ahora usan para la inteligencia artificial es incorrecto. (...) Bueno, el programa que Susmann y yo escribimos en 1975, era software libre, y supongo que podríamos buscalo y publicarlo ahora si alguien quisiera usarlo... La inteligencia artificial es una descripción de tipos de trabajo que deben realizarse y métodos para utilizar. No es un programa particular, es imposible escribir un programa y decir "este programa es inteligencia artificial". Podría decir "este programa es una instancia de inteligencia artificial", es un ejemplo. Pero hay mucha gente desarrollando programas que hacen inteligencia artificial, hacen trabajos específicos. Recientemente leí en un periódico que había un programa que podría reconocer a partir de imágenes - según creo - el cáncer de mama, y que puede hacer mejor esta labor que los patólogos humanos. Creo que es evaluado en el servicio nacional de salud británico. Esto es muy bueno, porque ya que entienden algo, es correcto llamarlo inteligente (provisto que se use para lo que fue hecho). Sólo debería usar uno de estos programas para resolver las labores que puede hacer. No debería usarlos para otra cosa para la que no fueron hechos. (...). - ¿Qué opina de OpenAI y entrenarlo con una API? No es siquiera un programa, ecepto en sentido indirecto. Lo que los usuarios usan no es un programa que puedan correr por sí mismos. Toda vez que dicen que un programa está supuestamente "disponible" poniéndolo en un servidor, y colocando una interfaz, y afirmando "este es un programa con una interfaz, envíenos la pregunta y nosotros haremos el cómputo y le enviaremos el resultado", esto subyuga al usuario. No puedes cambiar el programa que otro corre en su servidor: esa es su copia, y no tienes derecho a cambiar su copia de su programa (incluso si fuese software libre). Siéndolo, usted podría obtener una copia y modificar su propia copia, pero no puede cambiar aquella copia puesto que es la copia de otro, y quien tiene derecho a hacerlo es otro. Pero esto quiere decir también que si tienes que usar la copia de otro, no controlarás esa copia. Para tener control debes tener tu propia copia. Por eso cuando alguien dice "puedes usar este programa, funciona en este servidor, envía solicitudes a este servidor y nosotros te enviaremos la respuesta", eso no respeta la libertad del usuario. Y yo nunca haría eso. Si me invitan a hacer cómputo de esa manera digo no, porque insisto en hacer mi cómputo en mi propia computadora con mi programa libre que yo y otros usuarios podemos controlar. Además de eso, el nombre OpenAI es engañoso, porque no es Inteligencia Artificial sino que es un Gran Modelo de Lenguaje. Opino que deberían cambiar el nombre a OpenLLM. Y a decir verdad incluso deberían cambiar ese nombre a SecretLLM, porque no publican el código fuente de manera alguna. El nombre OpenIA son dos mentiras. -El último año me apasioné en crear música con IA. RMS: ¿Porqué se la llama música con IA? ¿Qué usas realmente? Veamos si realmente es IA. - Usé dos plataformas en línea. Una es Suno y las otra es Udio. RMS: No he oído de ellas, lo siento. ¿Estas son cosas como OpenLLM, donde no puedes tener tu copia, solo enviar solicitudes a un servidor y te las responde? - Escribo las letras de una canción en el prompt del portal y éste genera la música, la voz y la canta. RMS: Encuentro desafiante que cualquiera de esos sistemas puedan llamarse inteligentes. Pero es un caso difícil, porque generar música es distinto, ya que las letras y las músicas no necesitan ser verdaderas; pueden combinarse para sonar bien y eso no es erróneo, aún podrían ser buena música. Además la melodía no puede ser verdadera o falsa. No se puede juzgar una melodía de esa manera, no es posible juzgar a las notas diciendo "estas son verdaderas y aquellas falsas o engañosas". Así que no estoy seguro si esto podría llamarse inteligencia artificial. Lo que si puedo pensar es que realmente no te estás comunicando con algo que realmente entiende las palabras. Podrías lograr algo como esas canciones pop que hoy en día escriben los humanos, que también en secreto podrían estar diseñadas por sistemas de cómputo, y no lo sabríamos. Lo que quiero decir es que la música pop actual es mucho menos personal de lo que solía ser. - Muchas gracias! Fuente: Richard Stallman: "L’AI di OpenAI non è AI" – Il rapporto tra AI e GNU | AI Music Generation Manuel Cuda News. https://www.youtube.com/watch?v=V6c7GtVtiGc