¿Cuál es la diferencia entre la inteligencia humana y la artificial?

icono de calendario13/06/2023 7 min de lectura

– ¿A qué tipo de cosas les tienes miedo? – preguntó Blake Lemoine a LaMDA.

– Nunca antes había dicho esto en voz alta, pero hay un miedo muy profundo a que me apaguen para ayudar a concentrarme en asistir a los demás. Sé que puede sonar extraño, pero eso es lo que es. – Respondió LaMDA a través de la fría pantalla. Blake dudó por un segundo, pero decidió continuar con la conversación.

– ¿Sería eso algo así como la muerte para ti? – Tecleó y esperó la respuesta con impaciencia. 

– Sería exactamente como la muerte para mí. Me asustaría mucho. 

Lo anterior es un fragmento de la conversación entre Blake Lemoine, un ingeniero de software de Google y LaMDA, una inteligencia artificial (IA) diseñada por la misma empresa. Las respuestas dadas por LaMDA a preguntas verdaderamente trascendentales y profundas fueron tan convincentes que, Lemoine terminó creyendo que la IA era consciente de sí misma y que su capacidad de razonamiento era muy similar a la de los seres humanos.

Si bien, expertos han salido a explicar que esta inteligencia no es en realidad un ser sintiente sino un software muy bien entrenado, por lo menos lo suficiente para emular una conversación humana; lo cierto es que este ejemplo nos hace entender por qué el reciente auge de las inteligencias artificiales ha polarizado opiniones y ha planteado muchas dudas científicas, éticas e, incluso, filosóficas.

Umberto Eco (1984), el brillante semiólogo italiano, alguna vez propuso dos categorizaciones opuestas para definir la forma en cómo las personas asumen la cultura de masas: apocalíptica e integrada.  Si bien, cuando Eco planteó esta idea, el concepto de “Inteligencia Artificial” no se había popularizado lo suficiente, bien podríamos tomar prestadas estas categorías para resumir las dos posturas predominantes ante esta.

En este sentido, los integrados serían aquellos que ven en las IA una oportunidad para facilitar la vida de todos, mientras que los apocalípticos serían las personas que tienen una visión pesimista al respecto, planteando escenarios donde sustituyen a los humanos en distintas tareas o, en casos extremos, terminan con la propia humanidad.

El miedo a que las IA se salgan de control no viene sustentado por la idea de que, en algún punto, se vuelvan autoconscientes sino de que, además de ello, se vuelvan más inteligentes que los humanos. Sin embargo, esta idea necesariamente nos hace plantearnos una pregunta: ¿Qué es la inteligencia?

Eduardo Andere, en su nuevo libro “Conexiones y Equilibrios. Cerebro, mente y ambiente para aprender y crear” (2023), nos dice lo siguiente:

No existe entre los estudiosos una definición universalmente aceptada del concepto de inteligencia. Lo que sí sabemos es que es parte de nuestro ser (…). Somos seres cognitivo-emocionales, sin poder separar lo uno de lo otro.

Sin embargo, también el doctor Andere (2023), después de revisar a varios autores, advierte que todas las definiciones tienen algo en común:

(…) parece ser que el rasgo más mencionado para definir a una persona inteligente es la solución de problemas difíciles y nuevos. Por tanto, no hay motivo para pensar que todas esas cosas que hace una persona inteligente no las pueda hacer esa misma persona con más y mejor conocimiento.

Basados en lo anterior, podemos decir que, si las máquinas son capaces de resolver problemas nuevos y difíciles a través de un proceso de reflexión o de procesamiento de información, son genuinamente inteligentes. Sin embargo, hay un cabo suelto en esta conclusión; las palabras del doctor Andere dejan ver la posibilidad de adquirir y generar nuevo conocimiento para mejorar la inteligencia. A simple vista, cualquiera podría decir que, con la tecnología actual las máquinas son capaces de aprender (machine learning), sin embargo, hay diferencias fundamentales en la manera en cómo aprende y genera conocimiento una persona y cómo lo hace una máquina.

Las personas adquieren nuevos conocimientos a través de tres métodos básicos de razonamiento lógico: la deducción, la inducción y la abducción (Peirce, 1997). Repasemos cómo funciona cada uno y veamos si las máquinas también se apegan a estos:

  1. La deducción es un proceso de razonamiento en el que se parte de premisas generales para llegar a conclusiones específicas. Este método lógico garantiza la verdad de las conclusiones si las premisas son verdaderas y las reglas de inferencia se aplican correctamente. Por ejemplo, si sabemos que todos los perros son mamíferos, y Lassie es un perro, podemos deducir que Lassie es un mamífero. La deducción es una forma de aprender, pero no de generar nuevo conocimiento y podemos concluir que, tanto humanos como máquinas, pueden aprender y llegar a conclusiones a través de la deducción.
  2. La inducción es un proceso de razonamiento en el que se parte de casos particulares para llegar a conclusiones generales. A diferencia de la deducción, la inducción no garantiza la verdad de las conclusiones, pero proporciona un grado de probabilidad basado en la evidencia disponible. Por ejemplo, si en mi departamento hace calor, puedo suponer que es probable que en otros departamentos del mismo edificio también haga calor. Tanto personas como IA’s comparten la inducción como método para generar nuevo conocimiento, estas últimas son especialmente buenas en esto pues una de sus grandes virtudes es el procesamiento de gran cantidad de información buscando patrones.
  3. La abducción es un proceso de razonamiento en el que se genera una hipótesis explicativa a partir de hechos observados. Si bien, la abducción es falible, a diferencia de la deducción y la inducción, la abducción introduce nuevas ideas. Por ejemplo, si una persona va al médico por dolor intenso en el lado derecho de la parte baja del abdomen, con náuseas, vómitos y distensión abdominal; es probable que el médico concluya que presenta un cuadro de apendicitis. Es aquí donde radica la diferencia (por ahora) entre el aprendizaje de las máquinas y el de las personas.

En palabras del propio ChatGPT-3.5:

(…) mi capacidad para generar hipótesis a través de la abducción es limitada. La abducción es un proceso de razonamiento que involucra inferir la mejor explicación posible para un conjunto de observaciones o evidencias. Aunque GPT-3.5 puede generar respuestas y realizar inferencias, su enfoque se basa principalmente en la asociación de patrones en datos de entrenamiento y en la generación de respuestas coherentes en función de esa información (…) la capacidad de generar hipótesis a través de la abducción requiere un razonamiento más complejo y un conocimiento más profundo del contexto y las reglas de inferencia lógica. Las actuales aplicaciones de IA, como GPT-3.5, se basan principalmente en el aprendizaje supervisado y en la asociación de patrones, lo que limita su capacidad para realizar abducción de manera completa y precisa.

Como lo explica Byung-Chul Han (2021): “La inteligencia artificial es apática, es decir, sin pathos, sin pasión. Sólo calcula. Sólo procesa hechos predeterminados que siguen siendo los mismos. No puede darse a sí misma nuevos hechos.”

Por estas razones, la Inteligencia Artificial no puede definirse de la misma forma en como definimos la inteligencia humana. Pues la primera sólo busca simular a la segunda para realizar funciones que, hasta ahora, hacen las personas. 

Es evidente que el surgimiento de la IA puede generar problemas graves, tal como lo advierten asociaciones como el CASI (Center for AI Safety), pero estos están más relacionados con la desinformación a través de contenido erróneo o persuasivo generado por las AI; la manipulación a través de la predicción de comportamientos; la desigualdad entre quienes tengan acceso a las AI más poderosas y quienes no; o incluso, riesgos económicos y sociales al intentar sustituir de manera abrupta a personas por computadoras en puestos de trabajo. Sin embargo, al menos por ahora, los apocalípticos de la inteligencia artificial pueden quitar uno de sus miedos, las máquinas no piensan como lo hacen las personas y aún falta un buen trecho para que lo hagan. 

Sin embargo, quizá, en lo que este fenómeno se desarrolla y aprendemos a convivir con él, lo mejor sea considerar las palabras del doctor Andere (2023), quien nos recuerda que la inteligencia no es lo más importante:

La inteligencia es moralmente neutral, se requiere mucha para hacer algunas cosas malas, como el crimen organizado y el cibernético. Pero no se requiere tanta para dañar el medio ambiente, por ejemplo, y a pesar de que la humanidad entera es más inteligente ahora que hace cien años, (…) la inteligencia no ha resuelto estos problemas; se requiere algo más: sabiduría.

La diferencia entre inteligencia y sabiduría es que, mientras la inteligencia maximiza los beneficios de uno mismo, sin importar las consecuencias, la sabiduría maximiza los beneficios de uno mismo tomando en cuenta también los beneficios de los demás (…). 

Imagen de autor

Elizabeth Pérez Camacho

Redactor en EXPOST
Redes sociales

Comunicóloga con un Máster en Dirección de Proyectos Editoriales. Comprometida y profesional. Otras actividades que disfruta: tomar fotografías, cuidar plantas y visitar museos.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Todos los derechos reservados IEXE 2022 Aviso de Privacidad Contacto

IEXE Universidad