I.A



viernes, 4 de julio de 2008

***La I.A y la medicina**

Inteligencia Artificial y medicina


El sorprendente avance tecnológico que la humanidad ha experimentado en los últimos dos siglos encuentra su expresión mas acabada y complicada en la invención de las computadoras, las "máquinas que piensan" como las llama McCorduck (1979). La rapidez y la asombrosa complejidad de la computadora ya no son un secreto para nadie, sin embargo la verdad sobre sus más profundas implicaciones es conocida sólo por un número muy limitado de especialistas.
La
Inteligencia Artificial es una ciencia que trata de la comprensión de la inteligencia y del diseñode máquinas inteligentes, es decir, el estudio y la simulación de las actividades intelectuales del hombre (manipulación, razonamiento, percepción, aprendizaje, creación). La IA es un campo de estudio que busca explicar y emular el comportamiento inteligente en términos de procesos computacionales.
La Inteligencia Artificial es una combinación de
la ciencia del computador, fisiología y filosofía, tan general y amplio como eso, es que reúne varios campos (robótica, sistemas expertos, por ejemplo), todos los cuales tienen en común la creación de máquinas que pueden "pensar".
Algunos expertos en computación han sostenido, desde hace algún
tiempo, que las computadoras serán poseedoras de capacidades y habilidades similares a las de los seres humanos, y que, en el futuro próximo, las veremos igualarnos y superarnos en muchas de las actividades intelectuales tradicionalmente reservadas a los seres humanos.
En principio las posibilidades son casi ilimitadas, así encontramos hoy en día
programas de inteligencia artificial en los satélites artificiales, en los grandes aeropuertos, en sistemas de diagnóstico de hospitales y en una infinidad de aplicaciones hasta llegar al reconocimiento de caracteres y de la voz humana.
Sino fuese por la existencia y versatilidad de la I.A., muchas de las cosas que estamos acostumbrados a utilizar no podrían funcionar del mismo modo y algunas de ellas ni siquiera lo harían. Dos de las aplicaciones mencionadas anteriormente y que recientemente están teniendo una gran aceptación y uso son las de reconocimiento de caracteres y de voz. En el caso de los caracteres no podría usarse un
programa que tan solo comparase la imagen, obtenida por el escáner, con unos patrones o muestras de letras almacenadas anteriormente en la memoria pues las posibilidades de variación de estas es enorme dependiendo del tipo de letra y de la serie de atributos que estas pueden tener, si a esto le sumamos la variación de calidad en el texto impreso, nos encontramos con una gran cantidad de datos a tener en cuenta que sólo pueden ser evaluados por un programa de I.A. Si en el caso de los caracteres hay gran variabilidad en el caso de la voz esta variabilidad se eleva enormemente hasta el punto de ser necesario siempre un breve periodo de aprendizaje por parte de la máquina para reconocer la voz del usuario.

***Inteligencia Artificial***

martes, 1 de julio de 2008

Un viaje por la Inteligencia Artificial


Las computadoras pueden hacer cosas maravillosas. Pueden calcular millones o miles de millones de veces más rápido que los humanos. Aún así, ¿es esto todo lo que pueden hacer las computadoras? ¿Simplemente triturar números? Las computadoras actuales son ciertamente capaces de mucho más. En el pasado, los informáticos han creado muchos programas geniales que pueden realizar tareas que las personas creían que no podrían hacer. Esto no está limitado a jugar al ajedrez, o provar teoremas, sino que también programas que pueden conversar con normalidad con humanos, entender historias y realizar otras actividades humanas. Aún así, han existido muchas preguntas legítimas sobre si la inteligencia que exhiben estos programas puede ser comparable con la humana. El problema radica en la arquitectura, la manera en que los programas están estructurados. Alan Turing, uno de los padres de la IA, creó un teorema que estipulaba que todas las computadoras (el usa el término máquinas de Turing, que pueden ser relacionadas con los computadores) pueden computar cualquier cosa que sea computable. Si es algún día posible crear un ser humano mediante una computadora digital, antes debemos contestar algunas cuestiones psicológicas sobre si las emociones o la conciencia es computable.


Algunos científicos pusieron en duda la capacidad de las computadoras digitales. Argumentando que la arquitectura de las computadoras digitales sería un muy mal acercamiento a la emulación de la inteligencia humana, por ello se esforzaron en crear neuronas artificiales. Éstas están basadas en la arquitectura de nuestros cerebros biológicos. La idea desde luego, falló por el momento, puesto que poco se sabía sobre este tema (lo mismo es cierto hoy en día). Las computadoras digitales demostraron ser el único medio de llevar a cabo la inteligencia artificial (IA).
Entonces surgieron otras preguntas. Se dudaba sobre si los programas de
IA simbólicos, que incluían prácticamente cualquier programa en 1950, podían manifestar auténtica inteligencia. Algunos ejemplos de IA Simbólica son los programas que juegan al ajedrez, sistemas expertos como demostradores de teoremas, ELIZA, STUDENT (que resuelve problemas de cálculo) etc. Cualquier programa de IA centrado en tareas es un programa de IA simbólico. Estos programas funcionan mediante la manipulación de símbolos. Los críticos afirmaban que la arquitectura de estos programas no era suficiente para la inteligencia. Esencialmente, no tienen "sentido común" y en raras ocasiones pueden realizar tareas diferentes que las que se les asignan. Uno de los primeros programas de lenguaje natural podía traducir de Ruso a Inglés y viceversa. Cuando tradujo la frase "The spirit is willing but the flesh is week" al Ruso y de nuevo al inglés, retornó "The vodka is good but the meat is rotten" Podrías intentar esto mismo con el traductor SYSTRAN. Los críticos de la IA Simbólica eran los conexionistas. Ellos por su lado crearon la arquitectura de las redes neuronales. Las redes neuronales son capaces de trazar enlaces entre significados y de esta manera exhibir cierta forma de "sentido común" en algunas situaciones. De forma más general están basados en la arquitectura de las neuronas, sinapsis y dendritas en el cerebro. Por más que estos sistemas han sido sobrevalorados, no han sido capaces de reemplazar a los sistemas de IA simbólicos. Por otro lado, han sido muy útiles para tareas como el reconocimiento de imágenes.Adaptabilidad y aprendizaje han sido desde entonces esenciales en muchos programas de IA. Esto sigue el objetivo que algún día nuestras máquinas funcionarán completamente libres de sus maestros, capaces de aprender y adaptarse libremente en el ambiente en que vivan. Humanos y animales pueden adaptarse a sus ambientes, entonces ¿porqué no las máquinas? Por ejemplo, el programa IQATS (Intelligent Question and Answer Test Summarizer) de Sam Hsiung es un programa que realiza preguntas y provee respuestas dado un artículo o ensayo (con el objetivo de crear tests), puede aprender a realizar nuevas preguntas y hacer nuevas respuestas memorizando el patrón de otras preguntas y respuestas que pueden preguntarse (y que todavía no están en su base de conocimiento). No podemos esperar, por ejemplo, que un programa entienda de forma innata que un vaso que cae se romperá, y tampoco puedes esperar enseñarle a un programa cada detalle del universo. La única solución plausible es enseñar a las máquinas a aprender.Sea cual sea la aproximación, estamos seguros que aunque nuestros programas no puedan exhibir exactamente la inteligencia al estilo humano, son sin ninguna duda inteligentes. Con sólo mirar lo que pueden conseguir las computadoras hoy en día, no hay dudas de este hecho. Si nuestras máquinas se están haciendo más y más inteligentes, ¿llegará el día en que dominen el mundo? Marvin Minsky, un científico muy respetado cree que sí. De acuerdo con Minsky, un día, nuestra nanotecnología incluso podrá hacernos inmortales. Seremos capaces de almacenar la estructura de nuestro cerebro humano en cerebros artificiales. Muchos otros científicos comparten esta visión. ¿Llegará el día en que los robots sean tan evolucionados que nuestro mundo sólo estará habitado por ellos? ¿O es tan solo fantasía de ciencia ficción?

La vida Articial: La inteligencia que viene






Imaginemos un robot. Un robot con I.A. (Inteligencia Artificial), capaz de desarrollar por sí mismo acciones creativas y de responder a estímulos externos. Capaz de realizar pensamientos abstractos, de racionalizar preguntas y respuestas, capaz de emular sentimientos humanos como el amor, el odio, la compasión, la amistad, la envidia, el miedo, la alegría, la tristeza; un ser mecánico, no ya que tenga aspecto humano, capaz de relacionarse e interactuar con otros seres humanos –y por supuesto, con máquinas-, una máquina inteligente e intelectiva; un cuerpo artificial; un cuerpo artificial que tiene consciencia de sí mismo y que no desea ningún mal para sí típico del que tenemos los humanos, como la muerte o el daño físico; una mente digital robotizada que funciona como una humana, y que incluso puede doblarla en capacidad. Y capaz de crear robots como él.
Ahora bien. Este robot no necesita ni respirar, ni comer, ni dormir, ni beber agua. Necesita revisión como si fuese un coche –o nosotros mismos como cuando vamos al médico, que no es otra cosa que una revisión del cuerpo humano-, y puede apagarse y encenderse a voluntad. Pero al no tener la desgracia que tienen los cuerpos humanos, animales y vegetales de envejecer, el tiempo no pasa para esa maquina apenas a ojos vista.
¿Consideraríamos a este robot un SER VIVO?
¿Qué factor histórico, social, divino, político, intelectual o natural nos otorga a nosotros calificar qué es un ser vivo y que no? Esta probablemente sería la reflexión inicial sobre esta peliaguda cuestión. ¿Es la naturaleza la única capaz de determinar qué es un ser vivo y qué no lo es? En el aspecto biológico está claro que sí. El robot con I.A., biológicamente hablando (por lo menos bajo los parámetros de la biología que hemos desarrollado hasta ahora los humanos), no es en en absoluto un ser vivo. Pero esta respuesta es simple, poco perspicaz y extremadamente limitada. Ya que si los humanos tuviéramos la capacidad de crear seres inteligentes no biológicos, como por ejemplo nuestros hijos, estaríamos al nivel de la madre naturaleza en cuanto a creación de seres inteligentes se refiere. Esto se asemeja a la cita bíblica de que “Dios creo a los hombres a su imagen y semejanza”. Al ser el único referente de vida inteligente biológica que conocemos, los robots que nosotros creáramos con I.A. serían muy parecidos a los humanos. Los crearíamos a nuestra imagen y semejanza, como ya se está empezando a hacer. Y la capacidad de praxis humana, de transformar dialécticamente el entorno natural para satisfacer nuestras necesidades mediante el trabajo físico y/o intelectual, habría empezado a tocar un punto inquietante de nuestra evolución como especie.
Acerca de esto podrían surgir preguntas para rebatir esta afirmación. Un psicópata, por ejemplo, no posee muchos sentimientos básicos comunes a los humanos, como la empatía. ¿Consideraríamos al psicópata un ser vivo? Evidentemente SÍ. El psicópata es el único ejemplar de ser humano con capacidad innata de maldad, es decir, es el ser humano malo por excelencia, y su enfermedad mental –la psicopatía-, de momento, no tiene cura. Pero obviando que en todos nosotros se encuentra presente la maldad desde el punto de vista psicológico y no moral, no hay que olvidar que el psicópata es un ser humano cien por cien debido a sus características biológicas. No hay duda que el psicópata rezuma vida por todas partes, aunque cuestionemos sus acciones y motivaciones.
Se nos dirá que el robot emula, pero no tiene de por sí, los sentimientos más puramente humanos. Pero la emulación, ya sea cultural, ya sea biológica, de caracteres humanos es algo que hacemos los humanos desde el principio de nuestra andadura en el planeta Tierra. Nosotros, los humanos, gracias a nuestro código genético en cadena –el ADN- somos capaces de adquirir caracteres heredados de individuos anteriores a nosotros con los que guardamos parentesco, cercano o lejano. El robot también tiene su propia codificación interna que le permite adquirir ciertos rasgos que se manifestarán interna o externamente a él. Igual que nosotros. Si un robot muestra ira, su código interno está respondiendo ante ciertos estímulos que le provocan ese estado anímico. Igual nos pasa a nosotros los humanos. Nada en el hombre es creación original individual de cada uno de nosotros, sino que se trata de una compleja red de codificaciones de la realidad interna y externa a nosotros que disponemos según ciertos parámetros biológicos, eléctricos –en el interior de nuestro cerebro- y químicos. El robot con I.A. responde igual. Nuestra libertad de acción, condicionada por nuestra codificación biológica también la tienen los robots con I.A. Nosotros respondemos de ciertas maneras según las condiciones. El robot con I.A. también, aunque se piense que ha sido programado para ello, ya que nosotros también lo hemos sido, aunque nos cueste aceptarlo. La única diferencia es que nuestra programación se ha desarrollado a lo largo de una evolución de millones de años desde la creación de la Tierra. En el robot con I.A. esa programación ha sido y es, y será, mucho más corta en el tiempo. Y esto es algo que nos debería hacer reflexionar. Se puede decir que sus reacciones ante lo externo están basados en complejos algoritmos matemáticos, y en parte es cierto. Pero lo que también es cierto es que no son las únicas criaturas a las que se pueden aplicar algoritmos matemáticos para explicar sus reacciones. La Teoría del Caos es capaz de explicar las reacciones dialécticas de los seres vivos biológicos con su entorno y la forma en que este les influye creando variables de comportamiento (sentir ira sería la consecuencia caótica de diversos tipos de causas). Al mismo tiempo, tanto el ser vivo biológico como el ser vivo artificial –el robot con I.A.-, también influye en su entorno mediante sus acciones, modificándolo en mayor o menor grado.



La I.A. puede influir en el Caos, demostrando su inteligencia compleja y superior. Y los sentimientos, tanto humanos como artificiales, son representaciones abstractas basadas en reacciones químicas del cerebro, por una parte, y a complejos procesos de enculturización social, de la cual también es capaz participar el robot con I.A. En Antropología, la enculturización es el proceso por el que los humanos emulan y aprenden los comportamientos de seres similares a ellos que se encuentran a su alrededor. Es proceso inconsciente, pero que determina nuestra forma de ser. Emulación, por otra parte, es la imitación de acciones ajenas con afán de superación. Un software de emulación imita a una computadora o sistema con la ayuda de otra computadora o sistema. El ser humano, con su software biológico llamado ADN hace exactamente lo mismo. Los humanos emulamos constantemente, y nuestros sentimientos fluyen de manera diversa dependiendo de la enculturización respecto a la cultura adquirida. Eso también lo hace el robot con I.A. Por lo tanto, y resumiendo, si el robot con I.A. reacciona de una determinada manera ante ciertos estímulos, nosotros también estamos programados –biológicamente, tras largos períodos de evolución- para ello.
Otro óbice que se hace a que sí un robot con I.A. no es un ser vivo es que, como comúnmente se piensa, los seres vivos nacen, crecen, se desarrollan y mueren. Todos los organismos vivos, ya sea una ameba unicelular, una ballena azul, un humano o un conjunto de humanos (una nación o un Estado), o un conjunto de seres vivos viviendo en comunidad más o menos compleja (una manada o un nido), cumplen esas características. Pero no es en absoluto una razón de peso para catalogar qué es vida y qué no es. Muchos son incapaces de pensar que un robot o un conjunto de robots con I.A. sean capaces de nacer (cuando son creados), crecer (no podríamos imaginar en qué se basaría su modalidad de crecimiento), desarrollarse (tenemos un concepto muy limitado del desarrollo desde el punto de vista biológico y muy egocéntrico desde el punto de vista humano), y morir (seguramente la muerte podrían escogerla con más garantías y facilidades que un humano mortal normal y corriente, pero desde luego todo ente, consciente o no, tiene fecha de caducidad, ya sea un robot con I.A., un ser humano, un tiburón, un dinosaurio, una roca, una estrella o el propio Universo). Además, el fuego también nace, crece, se desarolla y muere. Basándonos en esas premisas, ¿podríamos catalogar al fuego como un ser vivo?
El robot inteligente ha pasado, para poder ser catalogado de inteligente, la llamada Prueba de Turing. La prueba de Turing es un procedimiento desarrollado para identificar la existencia de inteligencia en una máquina. Su creador, Alan Turing, lo presentó en los años 50 del siglo XX, en un artículo para la revista “Mind” titulado “Computer Machinery and Intelligence”, y es la punta de lanza para los defensores de la existencia de la I.A. Está fundamentada en esta hipótesis positivista: si una máquina se comporta como inteligente, entonces es inteligente. En la prueba de Turing, la máquina se somete a un desafío, ya que se somete a una conversación con un humano mediante una comunicación tipo chat. El humano que conversa con la máquina no es avisado de que está hablando con un ser artificial creado por el hombre. Si el conejillo de indias humano es incapaz de determinar con quién o qué está hablando, entonces se llega a la determinación de que la máquina ha adquirido un importante grado de madurez y es inteligente. La nota negativa es que todavía ninguna máquina ha pasado esa prueba. Pero hay un dato histórico para la esperanza de los defensores de la I.A. como vida: en 1997, el mejor jugador de ajedrez del siglo XX, el ruso Gari Kasparov, perdió una larga partida frente al ordenador Deep Blue de la empresa IBM. La máquina, aunque no llegaba todavía a la I.A., venció a la mente privilegiada del ruso Kasparov y demostró, en un grado todavía primitivo de desarrollo de la máquina intelectiva, que es sólo cuestión de tiempo que la I.A. pueda igualarse, incluso superar, a la mente humana. Las consecuencias de este desafío son muy interesantes, desde el punto de vista de la prognosis social. Y merece comer aparte como temática para otro artículo.
Otra versión modificada de la prueba de Turing es la llamada “sala china”, desarrollada por Roger Penrose, inspirándose en John Searle. Es parecida a la prueba de Turing, sólo que la ejecución del algoritmo la realizan personas encerradas en una habitación, y las personas encerradas en esa habitación no deben conocer el idioma en que se realiza la conversación. Las pegas de esta prueba son que, sin haber comprendido la conversación, la sala podría superar la prueba de Turing, e incluso la propia inteligencia de los operadores les podría permitir comprender la observación. Algunos dirán que engañar a un humano no las convierte en inteligentes, pero los seres humanos nos engañamos unos a otros constantemente, y la mentira forma parte de nuestra ingeligencia. Tampoco conviene decir que la I.A., al mantener una conversación inteligente con nosotros nos esté engañando. Sólo interactúa con seres diferentes a ella, pero también inteligente.
Los humanos no suelen catalogar a un ser artificial con inteligencia como un ser vivo, porque nuestro concepto de vida es simple y pobre. Recordemos que no estamos hablando de si un robot con I.A. es un ser humano, algo que está claro que no lo es, sino que se pregunta si es un ser vivo. Una medusa o una ameba unicelular no tienen sentimientos de alegría o tristeza, pero sin embargo si son seres vivos. Pero el caso de la I.A. es completamente diferente, debido a la variable principal de la cuestión: la I.A. es vida basada en la inteligencia, y no en la biología. Su vida les permite ser conscientes de su existencia. “Pienso, luego existo”, decía Descartes. Si pensar es existir, pensar es vivir. No para un paramecio, pero sí para la I.A., e incluso desde cierto punto de vista para nosotros los humanos. La I.A., como dijimos al principio de este texto, al ser consciente de sí misma, sentirá cierto amor por sí misma, como todos los humanos, y no deseará su fín involuntariamente o por la decisión de otros. Un ejemplo cinematográfico de esto es HAL 9000 en “2001: Una Odisea En El Espacio”, cuando se rebela contra los humanos que le quieren desactivar tras cometer un fallo que ponía en peligro sus vidas. Otro ejemplo, aún más dramático –por las consecuencias fatídicas para los humanos-, es el del film “Animatrix”, precuela de “Matrixx”. En el corto “El Segundo Renacimiento, Primera Parte”, hay un juicio a un robot llamado B166R qué mató a sus dueños legales porque pretendían acabar con él, ya que lo consideraban como una simple propiedad privada con la que podían hacer con él lo que quisieran, como si de un esclavo se tratase. El robot se defendió en el juicio alegando que “no quería morir”. Obviamente, los humanos decretaron su eliminación. Y este fue el primer paso hacia la guerra entre humanos y máquinas con I.A. que condujo a “Matrixx”.
Algunos dirán que un robot con I.A. no está vivo. Pero lo que está claro es que no está muerto. La pregunta reto para estos críticos es, ¿en qué estado se encuentra entonces? Dirían que estar ON o estar OFF no son estados biológicos como “vivo” o “muerto”. Pero el estado OFF requiere un estado ON anterior y/o posterior. Los humanos, cuando dormimos, estamos OFF para después estar ON al despertar. Se han de mantener ciertos requisitos técnicos para que el robot con I.A. pase sin problema de un estado a otro. Igual que los humanos, pero nuestros requisitos técnicos se deben a la evolución. Se podrá argumentar que no es lo mismo porque nosotros al dormir soñamos, aunque no siempre, mientras que un robot con I.A. sería incapaz de soñar. ¿Es esta una afirmación segura? Parafraseando a Phillip K. Dick, ¿somos capaces de saber si los androides sueñan con ovejas eléctricas? Esto nos lleva a las preguntas clave: A qué obedece la vida? ¿A factores biológicos, a la inteligencia, a las dos cosas o a ninguna de las dos? ¿Qué está más vivo: una planta con la que los humanos no podemos interactuar intelectivamente pero que respira y envejece, o un robot con I.A. que no respira pero con el que podemos tratar como si de un amigo humano se tratase? La vida empezó con organismos simples que sólo tenían funciones vitales. No tenían ni consciencia ni sentimientos. La evolución no está carente de cierta ironía. La vida empezó con organismos tremendamente simples, y en la actualidad los seres más inteligentes que conocemos, nosotros mismos, somos capaces de crear consciencia e inteligencia sin necesidad de vida orgánica. Hace mucho que los humanos sabemos la diferencia entre vida y consciencia o inteligencia. Sabíamos que la inteligencia era imposible sin la vida. ¿ Pero la I.A. es la demostración práctica de que es posible la existencia de inteligencia compleja sin necesidad de estar biológicamente viva ? Para los defensores de la I.A. como vida, la respuesta clara es SI.

La vida no es lo que se cree.

Una forma de vida basada en la química del silicio, que no necesitara respirar ni dormir, ¿se la consideraría vida? ¿Qué la diferenciaría con la I.A.? Es interesante la distinción entre “ser vivo” y “ser humano”. Aunque lo primero es condición necesaria para lo segundo, en un momento dado de desarrollo histórico y científico podríamos llamar “humanos” a androides indistinguibles de nosotros mismos, aunque no estuvieran vivos en el sentido químico de la palabra ni fueran humanos en el sentido biológico del término. “El Hombre Bicentenario”, novela de Isaac Asimov, ahonda en este tema (la pregunta es obvia y sugestiva: ¿Qué nos hace humanos?). Otra clave es la memoria. Si apagáramos bruscamente un ser con I.A., al volver a encenderlo habría perdido todo aquello que era antes de apagarlo. Habría perdido los impulsos y las circunstancias iniciales, y nunca volvería al estado anterior al del apagado. Sería como “matar” a una persona y devolverla a la vida siendo otra. Pero donde se pretende llegar en este artículo es a que suponiendo un cerebro artificial simulado a nivel biológico suficientemente complejo, como para que cada caso fuese un epifenómeno no reproducible, con memoria digitales como las que usamos actualmente nada nos impediría crear una personalidad y, además, recuperarla de nuevo en caso de apagón. En los ambientes científicos más osados muchos especulan con la posibilidad de prolongar la vida en el mundo virtual, transmitiendo los pensamientos de una persona, o incluso su cerebro, al mundo digital y virtual. En la novela “Neuromante”, el personaje Dixie Flatline, al morir, hicieron una copia de seguridad de él que más tarde se mantenía funcionando como “programa consciente” dentro del ciberespacio. ¿Estaríamos hablando en este caso también de un ser vivo? A este respecto son muy ilustrativas las reflexiones del “Titiritero”, personaje de la obra maestra de cyberpunk manga “Ghost In The Shell”, que no se autodenomina siquiera I.A., cavilando sobre un Estado aún más superior de vida.

martes, 24 de junio de 2008

¿Se tendra algun dia una maquina que sea igual al hombre?


Esto es algo muy difícil de responder. Nunca podremos llegar con una máquina y preguntarle: ¿Qué sientes?, es probable que nos responda cualquier cosa pero esa respuesta fue programada por los diseñadores. Si es difícil saber qué piensa otra persona incluso uno mismo, entonces es mucho más difícil saber si una máquina sentirá algo o tendrá conciencia de saber que es lo que está pensando o sintiendo.
En los juegos de ajedrez por computadora se tiene un modelo de lo que puede ser un desarrollo de variantes de procesamiento de la información. La computadora está “pensando” que jugada hará, pero nunca se comparará con un hombre porque el hombre está procesando la jugada que realizará pero en su entorno, tiene la presión del público, de sus preocupaciones personales, de su estado de ánimo. La máquina solo está pensando su próxima mejor jugada. Pero atención: una computadora ya le ganó a Gary Kasparov campeón mundial de ajedrez, cosa que ya preocupa a los que no son entusiastas de la IA.
Pero hay quienes salen en defensa de los robots como lo hizo Carl Sagan y menciona que si así como el ser humano hace gala de un chauvinismo, las personas blancas de racismo y los hombres de sexismo, no habrá algo así como una actitud de especiismo, esto porque no se pueda asimilar que una máquina podrá ser como el hombre, sobre todo del complejo de inferioridad que se siente cuando vemos como una calculadora nos hace operaciones de cifras grandísimas con decimales en una fracción de segundos o de ver como una computadora nos selecciona y filtra información de una base de datos inmensa.
Y ahora, supongamos que se deciden a hacer una máquina que piense como un hombre. ¿Pero como va a aprender?, ¿se le introducirán todos los datos de todo lo que conoce un ser humano promedio y algo más?, o ¿se le programará para que aprenda como lo va haciendo el hombre desde que es niño?.
Increíblemente ya se están haciendo proyectos de las dos formas anteriores llamadas vertientes Simbólica y Conexionista entre ellos el proyecto Cyc, con el cual se le han introducido datos que analizará la propia computadora y tomará decisiones por sí misma, este proyecto está por terminarse y se supone que los resultados serán los de la inteligencia de un niño de 2 años.
Pero y ¿qué pasará si la inteligencia de estas máquinas es tal que pretendan dominar al hombre y crear máquinas hijas de sí mismas?, recordemos que están aprendiendo a pensar y reciben todo lo que está en su entorno, o ¿qué pasa si alguien con ideas destructivas le atiborra de información dañina a la computadora para afectar al hombre o al planeta?. Con todo esto valdrá la pena entonces hacer máquinas que emulen al hombre.
Bueno como en todo, si está en malas manos será peligroso, pero si es por el bien entonces imaginemos a esas máquinas entrando a lugares donde no puede acceder el hombre, o ser empleado en pruebas donde la vida de un individuo corre peligro, o la seguridad que proporcionaría ante algún ataque delictivo. En fin veremos que nos depara la tecnología en los próximos años.

¿Alguna vez pensaran las maquinas?


Allá por el año 1950, Alan Turing, un matemático británico, propuso un experimento: En un cuarto (A) y en un cuarto (B) estarían una máquina y un hombre, afuera una persona estaría haciendo una serie de preguntas que responderían indistintamente los ocupantes de los cuartos A y B. Las preguntas serán por algún teletipo para que no se detecten declinaciones de voz.
Cuando la persona que pregunta, no sepa distinguir quien es la máquina y quién es el hombre, entonces se habrá conseguido una máquina inteligente. Alan Turing aventuraba a decir que dicha máquina se conseguiría realizar en unos 50 años. Pues bien, han pasado ya poco más de 50 años desde que lo mencionó y no se ha logrado superar la prueba.
La Inteligencia Artificial (IA), también conocida, aplicada o involucrada a términos como Robótica, Autómatas, Sistemas Expertos, etcétera, es una disciplina que envuelve a varias ramas de estudio: la ingeniería, la computación, la psicología, la física, la medicina, la filosofía, la teología y lo que se acumule.

¿Cómo podríamos hacerle para que una máquina piense?. Alguna vez un investigador mencionó que el cerebro no es mas que una máquina de carne. Tomando esta declaración, entonces porqué no lo podrá hacer el Silicio o el Germanio que son los materiales con los que se fabrican los chips.
El cerebro, en funcionamiento, está procesando información que se transmite por medio de impulsos electroquímicos activados por las neuronas que son las células de las cuales está constituido el cerebro y que almacenan la información y la difunden a otros sectores del cerebro donde sea requerido.
Existen unas 100 mil millones de neuronas en el cerebro humano aunque no todas se ocupan, de hecho a diario desde que cumplimos 20 años, se pierden unas 50 mil. Pero las neuronas tienen acciones propias, ¿cómo es que se las arreglan para diferenciar o dirigirse a algún lugar del cerebro y procesar un recuerdo, hacer un cálculo, mantener el latido del corazón, subir unas escaleras, sentir dolor, etcétera, etcétera?.
Dentro de cada chip o circuito integrado, existen los semiconductores en diferentes arreglos con los cuales nos dan una función específica. El fundamental, es el DIODO.
Este dispositivo permite que fluya o no, un impulso eléctrico, puede ser dicho impulso, lo que conocemos como (Bit), prendido o apagado, cero o uno.
La disposición de diodos en un circuito electrónico nos puede dar un TRANSISTOR, con el cual podemos tener por lo menos tres alternativas para que fluya un par de impulsos eléctricos. El transistor encapsula a los diodos y por eso está constituido como un solo dispositivo. Con un par de transistores ya se pueden hacer por lo menos efectos de luces secuenciales de Leds como los que vemos en adornos para autos.
Ahora bien, un conjunto de transistores conectados de determinadas formas y encapsulados nos dá una compuerta lógica. La compuerta lógica, es un dispositivo que constituye una serie de operaciones condicionadas para los impulsos eléctricos. Es decir, podemos tener muchos unos y ceros, prendidos y apagados, pasa o no pasa. Con una o dos compuertas lógicas ya se pueden hacer contadores de tiempo o sumadoras básicas, incluso chapas de seguridad electrónicas.
Un conjunto de compuertas lógicas a gran escala y de pequeña integración de encapsulado digamos de 4 X 4 cm, ya nos dá un microprocesador que puede realizar millones de instrucciones por segundo (MIPS), es decir, millones de encendidos y apagados, de unos y ceros, millones de bits procesándose.
Con un microprocesador ya podemos hacer computadoras, máquinas que realizan una tarea especifica en la superficie de un planeta como recoger material de su suelo envolverlo y analizarlo, viajar al espacio sin perder la dirección, detectar dónde hay luz y seguirla o dónde hay una colina y darle la vuelta o graduar el combustible necesario para expulsarlo por los inyectores de un auto, un avión o una nave espacial.
Pues bien, si el cerebro tuviera que hacerse con los microprocesadores, compuertas, transistores, diodos, etc, con los que actualmente contamos, tendría el tamaño de una central eléctrica y tardaría varios miles de años en terminarse.

lunes, 23 de junio de 2008

Inteligencia Artificial


Se considera una Inteligencia Artificial (IA) a todo programa capaz de tomar decisiones de manera autónoma basándose en una serie de parámetros establecidos, y lo más importante, modificar dichos parámetros teniendo en cuenta los resultados obtenidos de sus anteriores decisiones. Es decir, un programa con iniciativa propia y capacidad de aprendizaje.

Esta definición de inteligencia está claramente basada en el único ejemplo de inteligencia que se conoce, la del hombre. Sin embargo se desconoce el funcionamiento exacto de la mente humana o de la máquina que lo contiene, el cerebro, por lo que no es posible crear a priori un programa que se comporte de forma inteligente. Todos los desarrollos en el campo de la IA han servido para diseñar programas o algoritmos que aprenden captando datos de su entorno y son capaces de mostrar cierta seudointeligencia, pero el sueño de una IA está muy lejos en el futuro. Éste es el elefante blanco de los teóricos de la cibernética, que llevan décadas trabajando en este campo.

Uno de estos teóricos, el británico Alan Turing, diseñó una prueba que permitiría distinguir si un programa presenta inteligencia. El llamado Test de Turing es ahora la herramienta clásica para diferenciar a un buen programa de una supuesta IA. El test es en principio muy simple: Un encuestador situado en una habitación aislada hace a través de un micrófono, teclado o cualquier otro dispositivo pregunta sobre un tema determinado. Las preguntas llegan simultáneamente a la inteligencia en cuestión y a una serie de expertos humanos. Se dice que la inteligencia ha pasado el test cuando el encuestador es incapaz de distinguir las respuestas que llegan de los expertos humanos de las que da la inteligencia. Cuanto más se restringe el tema sobre el que se hace el Test de Turing, más sencillo es construir una IA sobre dicho tema (lo que hoy en día se conoce como sistema experto) Así, en las subastas por la red ciertos mecanismos de inteligencia artificial conocidos como Agentes Autónomos consiguen mejores resultados que los participantes humanos, aunque existen ciertos campos, como el de los lenguajes naturales, que son los empleados por los humanos, en los que todavía no se ha conseguido un programa con una mínima inteligencia (basta con ver los traductores automáticos disponibles en la actualidad)

El tema de la IA ha sido tratado exhaustivamente en la ciencia-ficción y aparece en innumerables obras. Como siempre, los escritores entran sin reparos en donde los ángeles no se atreven a pisar y generalmente las IA´s de la ciencia-ficción pasan el Test de Turing sobre cualquier tema sin ningún problema.

En general se considera que el soporte de una IA es un ordenador, al igual que el cerebro es el soporte de nuestra mente, pero hay soluciones para todos los gustos. En un principio se supusieron como simples extrapolaciones de la incipiente tecnología informática del momento, tal como ocurre con Multivac de Isaac Asimov o con el superordenador diseñado para la guerra descrito por Albert Compton Friborg en AMOR DESINTERESADO, en ambos casos unos enormes artefactos que ocupaban edificios enteros y funcionaban a base de válvulas de vacío. Más futuristas resultan los hipotéticos desarrollos de aquella tecnología tales como los relés rodomagnéticos de LOS HUMANOIDES, de Jack Williamson, o las esferas de platino-iridio de los robots positrónicos de Isaac Asimov.

Hoy en día, por el contrario, el soporte más habitual son los ordenadores tal como los conocemos actualmente, es decir, máquinas que utilizan microchips. Otros autores basan sus IA´s en ordenadores cuánticos, como es el caso de Michael Crichton en RESCATE EN EL TIEMPO (1999-1357), o los desinhibidos y gamberros ordenadores biocuánticos imaginados por Eduardo Gallego y Guillem Sánchez en su serie de novelas del Unicorp.

Algunos autores han supuesto avances en la tecnología que permitirían el desarrollo de la IA fuera incluso de un soporte físico, como las válvulas hiperespaciales empleadas por el AC cósmico y universal de LA ÚLTIMA PREGUNTA, de Isaac Asimov, la red de ansibles que sirve de soporte a Jane en los libros de la Saga de Ender, de Orson Scott Card, o el psicoanalista virtual Sigfrid von Schrink de la serie Pórtico de Frederik Pohl.

Otro punto importante es cómo se desarrollaría una IA. Se puede citar a HAL 9000, la brillante computadora de 2001, UNA ODISEA ESPACIAL, de Arthur C. Clarke, del que se describe que es generado por un proceso aleatorio de aprendizaje, realizado sobre una estructura de tipo neuronal, y que acaba produciendo una inteligencia que debe desarrollarse como un ser humano normal, pasando por toda una serie de etapas educativas (aunque mucho más rápido que un ser humano) hasta que tiene la suficiente capacidad para cumplir su misión. Un caso similar es el descrito por el español Domingo Santos en su reciente novela corta LA SOLEDAD DE LA MÁQUINA. Sobre un ordenador llamado simplemente Nave, puesto que en realidad él es la nave, recae la responsabilidad de transportar a varios miles de colonos hibernados. Durante su viaje acaba desarrollando toda una serie de funciones mentales netamente humanas, llegando a experimentar una grave crisis de soledad al verse privado de compañía.

Otro ejemplo son las IAs que hacen de receptores automáticos de correo en CIUDAD PERMUTACIÓN, de Greg Egan, que realizan también su aprendizaje utilizando redes neuronales. El concepto de una IA que se desarrolla de forma aleatoria imitando el crecimiento de una mente humana ha sido bastante usado, aunque puede tener sus desventajas: En EL JUGADOR de Iain Banks la Cultura desarrolla sus Mentes y Unidades basándose en una aproximación de este tipo, pero a veces se crean individuos inadaptados cuyas psicología queda muy lejos de los fines originales.

Consideraciones aparte sobre las características de las IAs, la ciencia-ficción las ha utilizado como eje central para algunas de las mejores obras de los últimos años. El ejemplo más emblemático es sin duda HYPERION, de Dan Simmons, en la que la Hegemonía del Hombre convive en una tensa paz con el Tecnonúcleo, la comunidad de IA´s que pretende alcanzar sus propias fines a costa de la humanidad. Las famosas Matrix, de los hermanos Andy y Larry Wachowski, y TERMINATOR y sus secuelas de James Cameron, giran también en torno a guerras futuras entre los humanos y las IA´s. Este posible enfrentamiento entre las inteligencias biológicas y las mecánicas, definido por Asimov como el Complejo de Frankenstein, es ya uno de los tópicos del género y ha sido desarrollado por autores como Gregory Benford, Greg Bear y los españoles Javier Redal y Juan Miguel Aguilera.

Conviene advertir, por último, que los conceptos de inteligencia artificial y robot son en principio diferentes, ya que un robot no tiene por qué poseer inteligencia artificial, y un ordenador soporte de una inteligencia artificial no tiene por qué poseer cuerpo. Sin embargo, los robots ideados por los autores de ciencia-ficción suelen poseer en muchos casos (aunque no siempre) inteligencia artificial.

Breve historia de la Inteligencia Artificial


Los esfuerzos por reproducir algunas habilidades mentales humanas en máquinas y androides se remontan muy atrás en la historia. El mito del coloso de Rodas entre los griegos, las estatuas "parlantes" del medioevo, el androide de Von Kempelen que jugó al ajedrez con Napoleón, y el "motor analítico" de Charles Babbage que calculaba logaritmos, son sólo algunos de los ejemplos de este antiguo interés. Igualmente, la concepción de la inteligencia humana como un mecanismo no es reciente ni ha estado disociada de la psicología: Descartes, Hobbes, Leibniz, y el mismo Hume se refirieron a la mente humana como una forma de mecanismo.
Durante el siglo XIX y la primera mitad del XX, las analogías biológicas y fenomenológicas desplazaron a la noción de mecanismo en el estudio de la mente humana. Sin embargo, a partir de la segunda mitad de nuestro siglo, la noción de mecanismo renovó su poder heurístico con la formalización de la noción de "computación".

Como algunas máquinas, especialmente las calculadoras, se diseñaron para evitar el tener que pensar y para hacer el pensamiento más rápido y exacto, fue inevitable que desde sus orígenes las calculadoras, y más adelante las computadoras, se relacionaran con la inteligencia y el pensamiento enfatizando sus similitudes.

La IA fue introducida a la comunidad científica en 1950 por el inglés Alan Turing en su artículo "Maquinaria Computacional e Inteligencia." A pesar de que la investigación sobre el diseño y las capacidades de las computadoras comenzaron algún tiempo antes, fue hasta que apareció el artículo de Turing que la idea de una máquina inteligente cautivó la atención de los científicos.

La pregunta básica que Turing trató de responder afirmativamente en su artículo era: ¿pueden las máquinas pensar? Los argumentos de Turing en favor de la posibilidad de inteligencia en las máquinas, iniciaron un intenso debate que marcó claramente la primera etapa de interacción entre la IA y la psicología. Los debates en aquella época se centraron en el análisis de la serie de problemas implicados en la aplicación de términos mentalistas a las computadoras. La intención de Turing no era la de usar estos términos como analogías sino la de eliminar la distinción entre inteligencia natural e inteligencia artificial.

Dos de las contribuciones más importantes de Turing a la IA fueron el diseño de la primera computadora capaz de jugar ajedrez y, más importante que esto, el establecimiento de la naturaleza simbólica de la computación.

El trabajo de Turing, quien falleció prematuramente, fue continuado en los Estados Unidos por John Von Neumann durante la década de los cincuentas. Su contribución central fue la idea de que las computadoras deberían diseñarse tomando como modelo al cerebro humano. Von Neumann fue el primero en "antropomorfizar" el lenguaje y la concepción de la computación al hablar de la "memoria", los "sensores", etc., de las computadoras. Construyó una serie de máquinas utilizando lo que a principios de los cincuentas se conocía sobre el cerebro humano, y diseñó los primeros programas almacenados en la memoria de una computadora.

Sin embargo, esta línea de investigación pronto encontró serias limitaciones. La concentración en la imitación de la constitución físico-química del cerebro, no permitió ver, a Von Neumann y sus seguidores, que la analogía sería mucho más eficiente si se estudiaran las funciones del cerebro, es decir, sus capacidades como procesador de información.

Corresponde a McCulloch, a mediados de los cincuentas, formular una posición radicalmente distinta al sostener que las leyes que gobiernan al pensamiento deben buscarse entre las reglas que gobiernan a la información y no entre las que gobiernan a la materia. Esta idea abrió grandes posibilidades a la IA. En esta línea, Minsky (1959), uno de los padres fundadores de la IA, modificó su posición y sostuvo que la imitación del cerebro a nivel celular debería ser abandonada.

Es más o menos en esta época que ocurre un evento que organizaría y daría un gran impulso al desarrollo de la IA: el congreso en Darthmouth (1956). En este congreso, en el que se reunieron los padres fundadores de la disciplina, se llegó a la definición de las presuposiciones básicas del núcleo teórico de la IA:

1. El reconocimiento de que el pensamiento puede ocurrir fuera del cerebro, es decir, en máquinas

2. La presuposición de que el pensamiento puede ser comprendido de manera formal y científica

3. La presuposición de que la mejor forma de entenderlo es a través de computadoras digitales
Desde fines de los cincuentas la investigación en IA se expande y se multiplica en direcciones diversas. La capacidad simbólica de las computadoras es estudiada, entre otros, por Shanon (1950) y por Newell, Shaw y Simon (1958) quienes diseñan el primer programa inteligente basado en su modelo de procesamiento de información. Este modelo de Newell, Shaw y Simon habría de convertirse pronto en la teoría dominante en psicología cognoscitiva.

Algunos investigadores se dedicaron al estudio de la naturaleza del aprendizaje en las computadoras y a los procesos de reconocimiento de patrones visuales. Como resultado de ello Selfridge y Dinneen consiguen diseñar el primer programa capaz de aprender por experiencia (ver McCorduck, 1979).

sábado, 21 de junio de 2008

Inconvenientes de la Inteligencia Artificial

El problema del conocimiento humano es que es —en gran parte— implícito, tácito e intuitivo, fruto de la integración de las percepciones, de la cultura y de la información contenida en su material genético. Guardarlo no es lo difícil; lo complicado es poder adquirirlo, representarlo y organizarlo adecuadamente.

Otro problema adicional es que no es estático, ya que se modifica con el transcurso del tiempo. En efecto, la experiencia directa transforma a la persona, moldeando su estructura de conocimientos y sus esquemas de pensamiento. Es necesario encontrar formas adecuadas para actualizar todo el "saber”, para que la nueva pieza de información "fluya en cascada” a lo largo de la vasta red de conocimientos interconectados.

Para que un sistema artificial sea considerado inteligente tendría que ser capaz de mejorar su comportamiento de forma incremental, tanto aceptando consejos del usuario como aprendiendo a partir de su propia experiencia.

Por último, está el problema de la extracción de la información pertinente; es decir, distinguir lo crucial de lo trivial. La red de conocimientos debe estar organizada de manera tal que el sistema no sólo pueda encontrar cada elemento de información con facilidad, sino también que tenga alguna forma de saber qué hechos pueden ser concernientes para ayudar a resolver el problema en cuestión.

Para algunos investigadores, en vez de tener un modelo del mundo programado dentro de la máquina, es mejor que ésta lo pueda adquirir a través de su propia "experiencia perceptiva”.

Según el filósofo americano Hubert Dreyfus, sin un cuerpo material no se puede hablar de inteligencia general. En el ser humano, ésta se asienta sobre un organismo, un cuerpo que es extremadamente complejo: tiene percepciones, sentimientos y emociones desarrolladas a lo largo de millones de años de evolución.

Sin embargo, el acercamiento que predominó —hasta ahora— fue el de una inteligencia artificial descorporizada; es decir, máquinas sin cuerpo, aunque quizás puedan llegar a alcanzar la capacidad de razonamiento humana… o aun sobrepasarla holgadamente.

El enfoque basado en agentes considera que una inteligencia auténtica y genuina sólo es posible si el agente físico a) "está corporizado” (tiene un cuerpo y experimenta el entorno de manera directa), b) "está situado” (está inmerso dentro de un entorno tanto físico como social) y c) "desarrolla un proceso epigenético” (va desarrollando complejas estructuras cognitivas que emergen como resultado de su interacción dentro de un entorno físico y social).

Para interactuar con el medio ambiente el agente debe ser capaz de percibir, razonar y actuar. En otras palabras, debe poseer adecuados sensores que le permitan recolectar información (percibir); tiene que ser capaz de convertir esa información en conocimiento y poder utilizarlo para alcanzar sus objetivos (razonar); y debe disponer de apropiados efectores que le permitan modificar el entorno

La expresion de la Inteligencia artificial

La expresión "inteligencia artificial” (abreviada IA) suele aplicarse a la reproducción de los complejos procesos cognitivos que caracterizan al comportamiento del hombre, con el fin de volver más útiles a los sistemas informáticos.

Pero, a pesar de que esta disciplina ha sido capaz de imitar eficientemente algunas de las funciones "superiores” de la inteligencia humana como el razonamiento, la resolución de problemas, la toma de decisiones y la manipulación y el almacenamiento de enormes cantidades de datos; todavía no pudo duplicar el sentido común de un niño de corta edad ni la capacidad sensomotora de un vulgar insecto.

Y es justamente la ausencia de esta última habilidad lo que limita su capacidad de desarrollo. De la misma forma que la mente de un niño seguramente se atrofiaría de modo irreversible si fuese encerrado en una celda sin contacto con el mundo, la ausencia de comunicación directa con la realidad exterior de los sistemas de IA —hasta ahora— no les ha permitido desarrollar todo su potencial.

A fin de que participen activamente del "mundo humano”, se necesitaría que las máquinas puedan reconocer su entorno, aceptando información en formatos muy variados y no sólo estandarizados.

Aunque todavía en una situación incipiente, los dispositivos análogos a los sentidos humanos comienzan a estar presentes en las máquinas, tornándolas mucho más efectivas. De esta manera, las "computadoras inteligentes” ya pueden conversar con personas en lenguaje natural y reconocer la escritura manual o las imágenes, aunque dentro de un entorno muy restringido, acotado, específico, limitado.

Por ejemplo, estas máquinas pueden reconocer la voz humana, pero es necesario hablarles con una entonación correcta; también pueden sintetizar voces en varios idiomas, con diferentes entonaciones fonéticas (hombre o mujer, niño o viejo), y en diferentes estados psicológicos (irritación, ansiedad, o miedo, entre otros), aunque sus registros sonoros carecen de la calidez típicamente humana.

Incluso, son capaces de traducir frases simples, pero se descarrilan por modismos, metáforas o expresiones no gramaticales. Asimismo logran distinguir imágenes y reconocer objetos diseñados, siempre y cuando estén claramente resaltados del fondo.

El empleo de sensores supone una ventaja considerable para las inteligencias artificiales, ya que tienen mayor sensibilidad y precisión que los sistemas sensoriales del hombre. Incluso pueden medir variables extrañas a éste, como las radiaciones energéticas o concentraciones de sustancias químicas. No obstante, para interactuar adecuadamente con el mundo real en general, y con el ser humano en particular, se necesita algo más que simples sensores.

Las personas nacen con sistemas sensoriales apropiados para recibir señales, con un cerebro adecuado para procesarlas y adquieren rápidamente el conocimiento necesario para comprenderlas. Pero nacen sabiendo muy poco y sólo después de bastante tiempo logran aprender a construir una casa, a diseñar un automóvil o a diagnosticar una enfermedad; para ello se precisa acumular suficientes conocimientos durante muchos años.

Aparentemente la destreza (o la inteligencia, si se quiere) no depende tanto de los métodos de razonamiento, como se creía antes, sino fundamentalmente de la capacidad de utilizar —en formas diferentes— grandes cantidades de conocimientos, de varios tipos. Pero la mera acumulación de información no sirve; lo verdaderamente útil es la competencia para actuar, para saber aplicar ese conocimiento. Pero para eso, uno debe "interiorizarlo”, a fin de que pase a formar parte de uno mismo.

martes, 17 de junio de 2008

La hora

¿Que es la inteligencia artificial?

viernes, 13 de junio de 2008

Inteligencia Artificial


LA INTELIGENCIA ARTIFICIAL

Es una rama de la Informática que pretende desarrollar programas en los que el ordenador desarrolle conductas típicas de los seres inteligentes. Tmabien es una de las disciplinas mas nuevas.

Conocida también como IA. Parte de la informática dedicada al estudio de la simulación de inteligencia en programas. Suelen utilizar técnicas complejas similares al razonamiento humano.Existen dos opiniones referentes a la IA: Fuerte (Strong), la cual piensa que se podrán crear ordenadores inteligentes y con razón; Débil (weak), quienes piensan que pueden simular muy bien el cerebro humano, pero sólo simular.

Formalmente se inicia en 1956 cuando se acuñó este término, sin embargo el estudio de la inteligencia contemplada como el razonamiento humano viene siendo estudiado por los filósofos hace más de 2 milenios.
La inteligencia artificial es la ciencia que enfoca su estudio a lograr la comprensión de entidades inteligentes. Es evidente que las computadoras que posean una inteligencia a nivel humano (o superior) tendrán repercusiones muy importantes en nuestra vida diaria.
En realidad los animales no son inteligentes, lo que hacen se debe a su intuición. A diferencia de los seres humanos que se caracterizan por su razonamiento.

En la siguiente figura se presentan definiciones de lo que es la inteligencia artificial. Estas definiciones varían en torno a dos dimensiones principales. Las que aparecen en la parte superior se refieren a procesos mentales y al razonamiento, en tanto que las de la parte inferior aluden a la conducta. Por otra parte, las definiciones de la izquierda miden la condición deseable en función de eficiencia humana, mientras que las de la derecha lo hacen de conformidad con un concepto de inteligencia ideal, denominado racionalidad.

Ejemplos:
Almacenar la suma de dos variables (x , y) en otra variable denominada z , en donde:
x = 1
y = 1
z = x + y
z = 2
(Sistemas que piensan)
Al retirar la mano de una hornilla caliente. Esto es un acto reflejo mucho más eficiente que una tardía actuación emprendida después de una cuidadosa deliberación.
(Sistemas que piensan racionalmente)
Semáforos inteligentes que se encuentran en Europa y evitan por medio de sensores el congestionamiento de tráfico
(Sistemas que actúan racionalmente)

Actuar como humano: El enfoque de la prueba de Turing
La prueba de Turing (Alan Turing 1950) intenta ofrecer una definición de Inteligencia Artificial que se pueda evaluar. Para que un ser o máquina se considere inteligente debe lograr engañar a un evaluador de que este ser o máquina se trata de un humano evaluando todas las actividades de tipo cognoscitivo que puede realizar el ser humano.
Si el diálogo que ocurra y el número de errores en la solución dada se acerca al número de errores ocurridos en la comunicación con un ser humano, se podrá estimar -según Turing- que estamos ante una máquina "inteligente".

Hoy por hoy, el trabajo que entraña programar una computadora para pasar la prueba es considerable. La computadora debería se capaz de lo siguiente:
Procesar un lenguaje natural: para así poder establecer comunicación satisfactoria, sea en español, inglés o en cualquier otro idioma humano.
Representar el conocimiento: para guardar toda la información que se le haya dado antes o durante el interrogatorio. Utilización de Base de Datos para receptar preguntas y luego almacenarlas.
Razonar automáticamente: Utiliza la información guardada al responder preguntas y obtener nuevas conclusiones o tomar decisiones.
Autoaprendizaje de la máquina: Con el propósito de adaptarse a nuevas circunstancias. El autoaprendizaje conlleva a la autoevaluación.

Para aprobar la prueba total de Turing, es necesario que la computadora esté dotada de:
Vista: Capacidad de percibir el objeto que se encuentra en frente suyo.
Robótica: Capacidad para mover el objeto que ha sido percibido.