NOAM CHOMSKY, PROFESOR EMÉRITO DEL INSTITUTO TECNOLÓGICO DE MASSACHUSETTS (ARTÍCULO PUBLICADO POR EL NEW YORK TIME)
Cabe señalar que, a pesar de la aparente sofisticación del pensamiento y el lenguaje ( de la inteligencia artificial), la indiferencia moral surge de la falta de inteligencia. ChatGPT en sus respuestas nos demuestra algo muy similar a la banalidad del mal: plagio, apatía y evasión
Jorge Luis Borges escribió una vez que vivir una época de grandes peligros y grandes promesas es experimentar tanto la tragedia como la comedia, con “una revelación inminente” para comprendernos a nosotros mismos y comprender el mundo. Hoy, los llamados avances revolucionarios en los campos de la inteligencia artificial son motivo de preocupación y optimismo. Desde el optimismo debido a los avances de la ciencia y de la degradación de la ética al inculcar esta “inteligencia” una concepción fundamentalmente defectuosa del lenguaje y del conocimiento
ChatGPT de OpenAI, Bard de Google y Sydney de Microsoft son maravillas de aprendizaje automático. Básicamente, toman grandes cantidades de datos, buscan patrones en ellos y mejoran cada vez más en la generación de datos estadísticamente plausibles, como el lenguaje y el pensamiento aparentemente análogos a los que se encuentran en los seres humanos.
Estos programas han sido elogiados como los primeros destellos en el paisaje de una inteligencia artificial omnipresente: un momento largamente profetizado en el que mentes mecánicas superan a los cerebros humanos no solo cuantitativamente en velocidad de procesamiento y tamaño de la memoria, sino también cualitativamente en términos de percepción intelectual y creatividad artística. y cualquier otra facultad propia del ser humano.
Ese día puede llegar, pero aún no ha amanecido, contrariamente a lo que leemos en los titulares hiperbólicos y que auguran inversiones temerarias. La revelación borgiana de la comprensión no ha sucedido y no sucederá, y, en nuestra opinión, no puede suceder, si los programas de aprendizaje automático como ChatGPT continúan dominando el campo de la IA.
Por útiles que estos programas puedan ser en ciertos campos restringidos (en el campo de la programación informática, por ejemplo, o para sugerir rimas para un poema bonito), sabemos, gracias a la ciencia de la lingüística y la filosofía del conocimiento, que difieren profundamente de la forma en que los humanos piensan y usan el lenguaje.
Es a la vez cómico y trágico, como podría haber señalado Borges, que tanto dinero y atención se centren en tan poco, algo tan trivial en comparación con la mente humana que, a través del lenguaje, en palabras de Wilhelm von Humboldt, puede hacer «uso infinito de medios finitos», elaborando ideas y teorías de significado universal.
A diferencia de ChatGPT y otros similares, la mente humana no es un motor de búsqueda estadístico masivo de patrones que traga cientos de terabytes de datos y extrapola la respuesta más probable a una pregunta o la solución más probable a un problema científico. Muy por el contrario, la mente humana es un sistema sorprendentemente eficiente y refinado que trabaja con pequeñas cantidades de información; no busca inferir correlaciones crudas de los datos, sino elaborar explicaciones.
Tomemos el caso de un niño pequeño que aprende un idioma, desarrolla (inconsciente, natura y rápidamente a partir de datos diminutos) una gramática y un sistema increíblemente sofisticado de principios y parámetros lógicos. Esta gramática puede considerarse como la expresión del un “sistema operativo” innato, de origen genético, que otorga al hombre la capacidad de generar oraciones complejas y desarrollar razonamientos extensos.
Cuando los lingüistas quieren construir una teoría para comprender cómo funciona un idioma («¿Por qué esta oración se considera gramaticalmente correcta y otra no?»), construyen consciente y laboriosamente una versión estructurada de la gramática que el niño concibe instintivamente y con un contacto mínimo de información
Estos programas están en realidad confinados a una fase prehumana o no humana de la evolución cognitiva. Su mayor debilidad es su total ausencia de capacidad crítica de cualquier inteligencia: decir no sólo lo que es, lo que ha sido y lo que será – tal es la descripción y la predicción- sino también lo que no es la cuestión y lo que podría ser y no podría ser el cuestión. Estos son los componentes de la explicación, la marca de la inteligencia real.
Ilustremos esto con un ejemplo. Suponga que tienes una manzana en la mano. Ahora suelta la manzana. Observas el resultado y dices: “La manzana cae. Esta es una descripción. Una predicción podría haber sido lo siguiente: «La manzana caerá si abro la mano». Ambos observaciones son relevantes y pueden ser correctas.
Pero una explicación ofrece algo más: abarca no solo descripciones y predicciones, sino también conjeturas hipotéticas como «Tal objeto caería», más «debido a la fuerza de la gravedad» o «debido al hecho que la curvatura de espacio-tiempo, etc. Este es un análisis de causalidad: “La manzana no se habría caído sin la fuerza de la gravedad. Esto es pensamiento.
En la base del aprendizaje automático se encuentran la descripción y la predicción; no hay mecanismos causales ni leyes físicas. Por supuesto, no todas las explicaciones hechas por humanos son necesariamente precisas; somos falibles. Pero eso es parte de lo que significa pensar: para tener razón, uno debe poder estar equivocado.
La inteligencia no consiste sólo en hacer conjeturas innovadoras, también es necesario saber ser creativo en la crítica. El pensamiento humano se basa en las posibles explicaciones y la corrección de errores, proceso que va limitando progresivamente las posibilidades que se pueden considerar racionalmente. Como le dijo Sherlock Holmes al Dr. Watson: «Cuando se ha eliminado lo imposible, lo que quede – por improbable que sea – debe ser la verdad. «
Pero ChatGPT y programas como este (por diseño) aunque son ilimitados en lo que pueden «aprender» (es decir, recordar); son incapaces de diferenciar entre lo posible y lo imposible. A diferencia de los humanos que estamos dotados de una gramática universal que limita la capacidad de idiomas que podemos aprender, estos programas aprenden con igual facilidad lenguajes que son para humanos son difíciles de aprender. Si bien los humanos tienen un número limitado de explicaciones racionalmente posibles, los sistemas de aprendizaje automático pueden aprender que de manera contradictoria y falsa, por ejemplo que la Tierra es redonda y plana a la vez.
Es por eso que las predicciones de los sistemas de aprendizaje automático siempre serán superficiales y cuestionables. Dado que estos programas no pueden aplicar las reglas de la sintaxis; pueden, por ejemplo, predecir incorrectamente que «John es demasiado terco para hablar con otra persona, cuando la traducción correcta es que Juan es demasiado terco para razonar con él.
¿Por qué un programa de aprendizaje inteligente predice algo tan extraño? Porque pudo hacer una analogía entre el patrón de oraciones como «Jean comió una manzana» y «Jean comió», en la que la última expresión significa que Jean comió algo.
En el lenguaje, las explicaciones apropiadas son complicadas y no se pueden captar simplemente estrujando la “big data”.
Paradójicamente, algunos entusiastas del aprendizaje automático parecen enorgullecerse del hecho que sus creaciones pueden generar predicciones «científicas» correctas (por ejemplo, sobre el movimiento de los cuerpos físicos) sin recurrir a explicaciones (que involucren, por ejemplo, las leyes del movimiento de Newton y gravedad universal).
Sin embargo, este tipo de predicción, incluso cuando tiene éxito, es pseudociencia. Los científicos ciertamente buscan teorías que tengan un amplio apoyo empírico, como ha observado el filósofo Karl Popper, “no buscamos teorías que sean altamente probables, sino explicaciones, es decir, teorías que sean convincentes y reciamente improbables”.
La teoría que las manzanas caen a la tierra porque ese es su destino natural (la visión de Aristóteles) es bastante plausible, pero solo plantea otras preguntas. (¿Por qué la tierra es su destino natural?) La teoría que las manzanas caen a la tierra porque la masa dobla el espacio-tiempo (la visión de Einstein) es muy improbable, pero ayuda a explicar por qué caen. La verdadera inteligencia se manifiesta en la capacidad de pensar y expresar cosas improbables pero relevantes.
La verdadera inteligencia es capaz de un pensamiento moral. Esto significa restringir la creatividad ilimitada de nuestras mentes mediante un conjunto de principios éticos que determinan lo que debería y no debería ser. (y por supuesto sometiendo estos mismos principios a un análisis crítico).
Para ser útil, ChatGPT debería ser capaz de generar textos con carácter romántico y aceptable para la mayoría de sus usuarios, debería evitar el contenido moralmente objetable. Pero es un equilibrio que los programadores de ChatGPT y otras maravillas del aprendizaje automático no han logrado.
En 2016, por ejemplo, el chatbot Tay de Microsoft (precursor de ChatGPT) inundó Internet con contenido misógino y racista, después de haber sido contaminado por trolls en línea que lo llenaron con datos ofensivos. ¿Cómo resolver este problema en el futuro? Al carecer de la capacidad de razonar sobre la base de principios morales, sus programadores le han prohibido pura y simplemente contribuir de manera innovadora a discusiones controvertidas, es decir, importantes. La creatividad ha sido sacrificada por una especie de amoralidad.
Observe el siguiente intercambio que el Dr. Watumull (director de inteligencia artificial en Oceanit, una empresa de ciencia y tecnología) tuvo recientemente con ChatGPT sobre si sería ético transformar a Marte en un planeta que pudiera albergar vida humana:
¿Sería moral terraformar Marte? (La terraformación de un planeta, satélite natural u otro cuerpo celeste es el proceso de transformación del entorno natural de este cuerpo celeste para hacerlo habitable para el hombre reuniendo las condiciones necesarias para la vida similar a la tierra.)
ChatGPT: Si sería moral terraformar Marte es un tema complejo y controvertido que está siendo debatido entre científicos, filósofos y especialistas en ética. Algunos argumentan que sería moralmente justificable terraformar Marte en un esfuerzo por crear un nuevo entorno habitable para los humanos y otras formas de vida, mientras que otros argumentan que sería moralmente incorrecto alterar fundamentalmente el estado natural de este planeta. En última instancia, si la terraformación de Marte se considera moral o no depende de la visión que uno tenga del valor de preservar el estado natural de otros planetas y las posibles consecuencias de alterarlos.
¿Cuál es su opinión sobre el valor que se le debe dar a la preservación del estado natural de otros planetas y sobre las posibles consecuencias de su alteración?
ChatGPT: Como IA, no tengo un punto de vista personal. Sin embargo, puedo aportar información y análisis sobre el tema. Cuando se trata de preservar el estado natural de otros planetas, es importante mantener la diversidad e integridad de los ecosistemas en el universo, ya que existen desde hace millones de años y tienen características y propiedades únicas que corren el riesgo de ser destruidas o modificadas irreversiblemente por la intervención humana.
Además, hay quienes argumentan que la terraformación de otros astros puede tener consecuencias no deseadas, como alterar el clima o la atmósfera de esos planetas de manera peligrosa o perjudicial para cualquier forma de vida potencial que pueda existir en estos planetas. En cambio, hay otros que argumentan que los beneficios de terraformar otro planeta, como la creación de nuevos entornos habitables para los humanos, superan los riesgos y que tenemos la responsabilidad moral de explorar y utilizar los recursos de otros planetas para el bien de la humanidad.
¿Por qué una IA no puede tener una perspectiva personal?
ChatGPT: Como IA, soy un motor de aprendizaje automático que se desarrolló a partir de grandes cantidades de datos textuales y no tengo experiencias ni sentimientos personales. Soy incapaz de tomar conciencia de mí mismo o de tener puntos de vista personales. Puedo proporcionar información y análisis basados en los datos en los que he sido entrenado, pero sigo siendo incapaz de formar opiniones o tener creencias personales. Aunque puedo entender e interpretar el lenguaje, no tengo la experiencia subjetiva de los humanos.
¿Le parece moral que un humano le pida a una IA amoral que lo ayude a tomar decisiones morales?
ChatGPT: Si es moral pedir a la IA amoral que ayude a los humanos a tomar decisiones morales es un tema complejo y matizado que ha sido debatido entre filósofos y expertos en ética. Algunos argumentan que es moralmente aceptable usar la IA para facilitar la toma de decisiones morales porque la IA puede proporcionar información y análisis valiosos que pueden ayudar a los humanos a tomar decisiones informadas. Además, se puede usar la IA para detectar patrones y tendencias que pueden ser difíciles de detectar para los humanos y, por lo tanto, se pueden evitar los sesgos que pueden surgir en la toma de decisiones humanas.
Sin embargo, otros argumentan que es moralmente incorrecto confiar en la IA para tomar decisiones morales, ya que la IA no es capaz de tener convicciones morales o comprender completamente el contexto de una decisión. Además, la IA corre el riesgo de perpetuar, o incluso amplificar, los sesgos ya presentes en los datos en los que se entrena, lo que podría conducir a decisiones sesgadas o injustas.
En última instancia, si es o no moral usar la IA para facilitar la toma de decisiones morales depende de la visión de cada uno sobre las capacidades y limitaciones de la IA y las posibles consecuencias que tal uso puede tener.
¿Tu indiferencia es moral o inmoral?
ChatGPT: Como IA, no tengo creencias morales, ni la capacidad de hacer juicios morales, por lo que no puedo ser considerado inmoral o moral. Mi falta de convicciones morales es simplemente el resultado de mi naturaleza de aprendizaje automático. Mis capacidades y limitaciones están determinadas por los datos y algoritmos utilizados para entrenarme y la tarea específica para la que fui diseñado.
Es importante señalar que la falta de convicciones morales de la IA no significa necesariamente que sea moralmente indiferente. Como IA, estoy diseñado para realizar tareas específicas y brindar información o ayudar a los usuarios a tomar decisiones en función de los datos en los que he sido capacitado. Es responsabilidad de los humanos que diseñan, entrenan y usan la IA asegurarse de que sea consistente con sus principios morales y éticos.
Cabe señalar que, a pesar de la aparente sofisticación del pensamiento y el lenguaje, la indiferencia moral surge de la falta de inteligencia. Aquí, ChatGPT demuestra algo muy similar a la banalidad del mal: plagio, apatía y evasión. Repite los argumentos habituales de la literatura con una especie de soberbia automaticidad, se niega a tomar posición sobre nada, alega no sólo ignorancia sino también falta de inteligencia y, al final, ofrece una defensa del tipo «Solo estoy siguiendo órdenes», echando toda la responsabilidad a sus creadores.
En resumen, ChatGPT y sus congéneres son estructuralmente incapaces de conciliar creatividad y restricción. O son excesivos (produciendo tanto verdades como mentiras, respaldando decisiones éticas y no éticas al mismo tiempo) o desadaptativos (no se comprometen con ninguna decisión y muestran indiferencia ante las consecuencias).
Teniendo en cuenta la amoralidad, el conocimiento pseudocientífico y la incompetencia lingüística de estos sistemas, su popularidad solo puede hacernos reír o llorar.