Buscar en
Revista Colombiana de Ortopedia y Traumatología
Toda la web
Inicio Revista Colombiana de Ortopedia y Traumatología La conjetura de Poincaré, la Entropía y La inteligencia Artificial
Información de la revista
Vol. 33. Núm. 3 - 4.
Páginas 61-63 (Septiembre - Diciembre 2019)
Compartir
Compartir
Descargar PDF
Más opciones de artículo
Vol. 33. Núm. 3 - 4.
Páginas 61-63 (Septiembre - Diciembre 2019)
Editorial
Acceso a texto completo
La conjetura de Poincaré, la Entropía y La inteligencia Artificial
What's up with the Poincarè conjecture, Entropy and Artificial intelligence (AI)
Visitas
51312
Juan Manuel Herrera Arbelaez
Este artículo ha recibido
Información del artículo
Texto completo

“La ciencia se construye con hechos; de la misma manera que las casas están hechas de piedras, la ciencia está construida con hechos; pero un montón de piedras no son una casa y una colección de hechos no son necesariamente ciencia.”

Jules Henry Poincarè

Desde el final de la década del 2010 hemos venido escuchando hablar de manera cada vez más frecuente acerca del concepto de la inteligencia artificial: el ser humano podrá prontamente crear máquinas inteligentes que podrían desplazarlo académica y laboralmente. Una idea sorprendentemente aterradora, incluso apocalíptica, como en las películas de Terminator. La verdad es que, aunque es cierto que las máquinas podrían reemplazarnos, la inteligencia artificial no será más que eso inteligencia, no tendrá la capacidad de tener sentimientos o empatía, al menos por ahora.

La conjetura de Poincaré es un problema matemático de la geometría multidimensional y por lo tanto de la teoría de conjuntos y de la estadística, que fue planteado en 1904 por el filósofo y matemático francés Jules Henry Poincaré, el reconocido autor de Hipótesis y Ciencia. La conjetura de Poincaré textualmente plantea: “Toda 3-variedad cerrada y simplemente conexa es homeomorfa a la 3-esfera”. La conjetura de Poincaré fue considerada como uno de los 7 problemas matemáticos del milenio y finalmente fue resuelta en el año 2003 por el matemático ruso Grigori Perelman quien se basó en los trabajos previos de Richard Hamilton. Su resolución abrió el camino a los famosos algoritmos con los que funcionan las plataformas tecnológicas de las redes sociales y a la inteligencia artificial.

Lejos de las teorías conspirativas entre las cuales se asegura que Amazon ya sabía que yo estaba escribiendo este editorial, y que Trump fue elegido por la intervención quirúrgica de Facebook y uno que otro ruso, las redes sociales y la inteligencia artificial tienen un sustento científico y matemático que intentaré explicar aquí. Personalmente creo que todos necesitamos aprender matemáticas, sobre todo los médicos, que escogimos la biología porque las matemáticas no nos gustaban o nos iba mal en ellas. Con el tiempo, he ido aprendiendo que el problema de los profesionales de las ciencias de la salud con las matemáticas tiene que ver mucho más con la mediocre formación en matemáticas que recibimos en el colegio, asunto que parece no haber cambiado mucho en tres o cuatro décadas dados los malos resultados que hoy obtienen nuestros bachilleres colombianos en las pruebas internacionales.

Recordando que las máquinas hablan en lenguaje binario (ceros y unos, donde cero es sin corriente eléctrica y uno es con corriente eléctrica) en combinaciones para activar diferentes sectores o funciones dentro de un procesador, memoria, etc, de acuerdo a una programación realizada por el hombre, la inteligencia artificial necesita poder discernir la geometría de los datos que han sido almacenados en ella como ceros y unos y tener la capacidad de diferenciar entre geometrías “simplemente conexas o no conexas”. Dicho de otra forma, geometrías conectadas o no conectadas; o de una manera aún más simple geometrías de planos completos o geometrías con agujeros. Una máquina tendría que poder responder a una orden simple: “cuidado con el hueco”, y tendría que localizar el hueco y esquivarlo para evitar caer en él. Desde el punto de vista de inteligencia, recibir el comando verbal “cuidado con el hueco” es recibir una alerta específica, y requiere de múltiples acciones para identificar un hueco específico y poder esquivarlo. La diferenciación del hueco o agujero de una forma racional implica para una máquina crear un concepto “de novo” que es el del hueco o agujero delimitarlo geométricamente, y de acuerdo con esto, tomar las acciones pertinentes para esquivarlo. Identificar un hueco o agujero y delimitarlo geométricamente implica construir una imagen de un concepto abstracto (el hueco) y tomar decisiones para evitar caer en él. En inteligencia artificial esto corresponde a crear “de novo” una secuencia de ceros y unos que corresponda al hueco e insertarlos como código dentro de su propia programación para posteriormente poder recordar dónde está el hueco. Sin embargo, cuando el hueco sea cubierto la máquina deberá discernir que el hueco en efecto ha sido cubierto y tendrá que reescribir “de novo” un fragmento de código con la información que hacía referencia al hueco y a que fue cubierto y tendrá que replantear la acción a tomar: en vez de tomar un desvío, deberá pasar por sobre el hueco cubierto; pero deberá recordar el sitio donde estaba el hueco antes de ser cubierto.

La matemática es una ciencia formal (conjunto sistemático de conocimientos racionales y coherentes), que a partir de axiomas (planteamientos verbales de problemas) y razonamiento lógico, se encarga de estudiar las relaciones y propiedades entre entidades abstractas (números, figuras geométricas, símbolos, etc) para plantear problemas de manera no ambigua en contextos específicos, que ha sido ampliamente definida como el lenguaje que se debe utilizar en la ciencia. Como la matemática define a la geometría y la geometría a la estadística, a la física, al universo mismo entre otros, y los comprueba, la conjetura de Poincaré estuvo en el centro del conocimiento humano por descubrir y sin resolución durante prácticamente un siglo.

La conjetura de Poincaré es un problema de geometría del cual se encarga la topología. La topología es una parte de las matemáticas que se encarga del estudio de las propiedades de los cuerpos geométricos que permanecen inalteradas por transformaciones continuas. Una manera simplista pero fácil para ilustrar el concepto es decir qué es la ciencia que estudia las propiedades geométricas de una plastilina en las manos de un niño. Mientras la plastilina no sea separada, pegada o agujereada, su geometría de dos dimensiones podrá cambiar mediante compresión o tensión, pero seguirá siendo un mismo conjunto geométrico y por lo tanto la resolución matemática de la geometría de esa plastilina seguirá siendo esencialmente la misma. A manera de broma, se suele decir que un topólogo no es capaz de discernir la diferencia entre una taza y un donut, porque desde el punto de vista topológico, geométricamente serían lo mismo. Al tener una taza y un donut un agujero, la una podría transformarse en la otra si ambas fueran de plastilina, comprimiéndose y estirándose alrededor del agujero. De acuerdo con esto una pelota de plastilina podría convertirse en un frisbee al comprimirse y estirarse, pero no podría convertirse en un donut porque la pelota no tiene agujero. No tener agujero significa que la pelota es simplemente conexa. La única estructura de 2-variedad simplemente conexa que existe es la esfera. La esfera que vemos y percibimos ha sido definida como una 2-esfera o esfera 2-variedad. La esfera 1-variedad o 1-esfera sería un círculo sin volumen dibujado en un papel. Sin embargo, matemáticamente existen n-esferas. Es decir, esferas que nuestros ojos no pueden ver pero que nuestro conocimiento matemático puede inferir. Hasta aquí hemos definido los conceptos necesarios para entender la primera parte de la conjetura de Poincaré; “Toda 3-variedad cerrada y simplemente conexa”.Para la segunda parte de la conjetura: “es homeomorfa a la 3-esfera”, es necesario entender el concepto matemático de homeomorfismo.

En matemáticas el homeomorfismo se define mediante funciones biyectivas continuas con inversas continuas. Una función es biyectiva, sí y solo si esta es inyectiva y sobreyectiva al mismo tiempo. Se le conoce como función inyectiva al vinculo que se desarrolla entre dos conjuntos, a través del cual a cada elemento de un conjunto se le asigna un elemento del otro conjunto o ninguno. Se conoce como función sobreyectiva a un conjunto de pares ordenados en el cual el primer elemento de cada par no se repite. Dicho de otra forma, esto ocurre cuando todos los elementos del conjunto de salida tienen una representación diferente en el conjunto de llegada y a cada uno de los elementos del conjunto de llegada le corresponde uno de los elementos del conjunto de salida. Cuando esto ocurre en términos geométricos o espaciales de manera continua y con inversas continuas se habla de homeomorfismo. Imaginemos por un momento que en el conjunto A se encuentran las adivinanzas y en el conjunto B se encuentran las respuestas a las adivinanzas. Entonces, en el conjunto A tendremos el elemento 1: agua pasó por aquí, cate que yo no la vi; y el elemento 2: blanco, redondo, gallina lo pone y frito se come. En el conjunto B tendremos el elemento 1: aguacate; y el elemento 2: Huevo. Cada uno de los elementos de cada conjunto (A y B) están representados por un elemento homeomorfo en el otro conjunto. Son homeomorfos porque las representaciones conceptuales son inyectivas y sobreyectivas al mismo tiempo y siempre serán continuas con inversas continuas.

Una pelota es un ejemplo de una esfera de dimensión 2 (una 2-esfera) o una esfera 2-variedad. Si pensamos en la 2 esfera como un conjunto, su contenido tendrá elementos con características específicas para haber sido agrupados dentro del mismo conjunto. Un ejemplo de esto es el afamado grupo de Facebook “yo también me fracturé el calcáneo”. Desde el año 2006 hasta la fecha en este grupo hay 915 pacientes que tuvieron una fractura de calcáneo con un pobre resultado después de su tratamiento, haya sido este quirúrgico o no quirúrgico. Por definición este es un conjunto de personas con una característica que los define (fractura de calcáneo), que tiene una geometría que de acuerdo con la probabilidad nos define que después del tratamiento el resultado fue pobre o malo. Por otro lado, en ese mismo tiempo se han publicado cerca de 700 pacientes en diferentes estudios con fractura de calcáneo que igualmente fueron manejados de manera quirúrgica o no quirúrgica con resultados entre aceptables y buenos. Este es un conjunto de personas con una característica que los define (fractura de calcáneo), que tiene una geometría que de acuerdo con la probabilidad nos define que después del tratamiento el resultado fue bueno o excelente. La pregunta del millón es si estos dos conjuntos de personas con la misma característica que los define (fractura de calcáneo) tienen en realidad la misma geometría o diferente geometría. Podría ocurrir que sean dos representaciones geométricas de la misma plastilina que ha sido deformada en el caso del grupo de Facebook por la expectativa de los pacientes y la escala análoga visual del dolor, mientras que en el caso de los reportados en los artículos científicos la deformación geométrica pudo haber ocurrido a expensas del valor del resultado de la escala AOFAS de retro-pie. Eso significaría que teniendo la misma geometría esta haya sido deformada por la forma o manera de valoración clínica. En el caso de los pacientes en facebook la geometría podría ser la de una pelota (valoración subjetiva pero real), y en el caso de los investigadores la de un frisbee (valoración objetiva pero irreal). Pero también podría ocurrir que el grupo en Facebook no sea simplemente conexo y corresponda a una geometría con un agujero mientras que el grupo de pacientes reportados científicamente sea una esfera (sin agujero) y por lo tanto ambos grupos tendrían una geometría diferente y por lo tanto serían diferentes. Para resolver esto, habría que recurrir a la 2 ley de la termodinámica descrita por Albert Einstein en 1907: la “Entropía” también conocida como “mecánica estadística”, como originalmente fue descrita por Ludwig Boltzmann entre 1890 y 1900, sin aplicación práctica. La entropía es la estadística del desorden, define de una manera simple la mayor probabilidad de equilibrio dentro de un sistema (termo-dinámico de acuerdo con la aplicabilidad que le dio Einstein) que a priori aparenta caos o desorden.

El ejemplo más frecuentemente utilizado para explicar la Entropía es el de los dados: al lanzar un dado, si no se realiza trampa, la probabilidad de acertar el resultado es igual para cada uno de los números marcados en cada una de sus seis caras (16,66%); sin embargo, si se lanzan dos dados, la probabilidad de obtener un resultado no se reduce a 8.33% porque son dos dados, en razón de las posibles combinaciones que se podrían obtener: primero que todo solo se pueden obtener 11 posibles resultados (números del 2 al 12), en segundo lugar hay que considerar las posibles combinaciones que cada resultado podría tener. Por ejemplo, para obtener un 2 solo sería posible la combinación de 1+1, para obtener un tres podrían combinarse 1+2 y 2+1, para obtener un cuatro podrían combinarse 1+3, 2+2, y 3+1, y así sucesivamente. Pero, el resultado con mayor posibilidad de combinaciones sería el 7, así que, por entropía, podríamos decir que la mayor probabilidad de resultado sería 7. Este sistema de probabilidad es por el cual algunos jugadores de casino deben visitarnos a los ortopedistas después de amañar el juego en el casino, y por lo cual el casino usualmente cambia de manera regular los dados en la mesa de juego. De acuerdo con la entropía todo en el universo, aunque parezca desordenado tiene en realidad un orden.

Por lo tanto, una inteligencia artificial tendrá necesariamente que identificar patrones probabilísticos en geometrías simplemente conexas y diferenciarlos de aquellos en geometrías no conexas. Eso en últimas es lo que hace nuestro cerebro con un gran margen de error a través del proceso al que llamamos experiencia. Con nuestra experiencia, somos capaces de llenar agujeros de conocimiento convirtiendo geometrías no conexas en simplemente conexas, motivados por nuestras emociones, lo cual es un error garrafal porque deducimos mal. Por entropía podemos algunas veces deducir bien, pero como nuestro cerebro percibe, pero no registra matemáticamente, estamos en desventaja frente a una máquina que logre pensar matemáticamente. Eso es lo que nos aterra. Claro, como el jugador de dados, podemos apostarlo todo a una idea que eventualmente resuelva algo, pero no necesariamente de la manera correcta. La máquina en cambio metódicamente irá generando pequeñas resoluciones a problemas específicos y seguirá analizando sus datos una y otra y otra vez, perfeccionándose a sí misma.

El problema con la inteligencia artificial no es la máquina, somos nosotros como sus creadores, y administradores y lo generamos cuando no construimos adecuadamente un sistema de valores, reglas o límites que se deben o no cruzar. Si la inteligencia artificial es alimentada con valores reglas y límites seguramente contribuirá al progreso del ser humano como especie. Si los valores reglas y límites no están claramente definidos para la máquina, entonces estaremos creando un monstruo. Amanecerá y veremos cómo salen los experimentos de la inteligencia artificial en Escandinavia y cómo en Colombia. Por ahora, al menos usemos este conocimiento para ser un poco más críticos en la diaria discusión mundial acerca de Uber.

Opciones de artículo
Herramientas
Quizás le interese:
10.1016/j.rccot.2019.07.004
No mostrar más