.. .. .. ..  .. .. .. ..  .. .. .. ..  .. .. .. ..  .. .. .. ..  .. .. .. ..  .. .. .. ..  .. .. .. ..  .. .. .. ..  .. .. .. ..  .. .. .. .. 
1) FUNDAMENTOS DE LA INTELIGENCIA
ARTIFICIAL:  (Síntesis)
Los
fundamentos de la inteligencia artificial
La inteligencia
artificial es un campo joven de la “informática”; su
composición científica surge a través de diversas ideas, puntos de vistas y
técnicas de otras disciplinas.
Durante ciertos de años de tradición en filosofía,
han surgido en el transcurrir del tiempo diversas teorías del razonamiento y
del aprendizaje, simultáneamente con las perspectivas de que la “mente”
respecto a las capacidades que la caracterizan, puede proyectarse al
funcionamiento de un sistema físico. Durante aproximadamente 400 años de
trascendencia en las matemáticas, han surgido “teorías formales”
relacionadas con la lógica, toma de decisiones, probabilidad, y por lo tanto,
la computación. A su vez, la psicología ofrece herramientas
que permiten la investigación de la mente humana, así como un lenguaje
científico para expresar las teorías que sucesivamente se van obteniendo.
La lingüística ofrece teorías sobre la estructura, composición
y significado del lenguaje. La Informática o ciencia de la computación,
es de la que se toman las herramientas y/o recursos que permiten que la “inteligencia
artificial” sea una realidad
De manera sintética se definirá teóricamente los fundamentos que albergan los “conceptos
y la realidad” de la inteligencia artificial:
Ø  LA FILOSOFÍA (del 428 a.C. al
presente)
Aristóteles formuló las leyes que
gobiernan la parte racional de la mente, concibió un sistema informal de silogismos
para el razonamiento adecuado, lo que permite generar conclusiones, asumiendo
ciertas premisas iniciales.
Descartes propuso la noción del
dualismo, sostenía que existe una parte de la mente(o del alma o del espíritu)
que está al margen de la naturaleza exento a la influencia de las leyes
físicas. Una alternativa es el materialismo, considero que todo el mundo
(cerebro y mente) funciona sujeto a leyes físicas. Una posición intermedia, es
aceptar que la mente tiene una base física, pero que rechaza, que ésta puede
explicarse reduciéndola a un proceso físico, están más allá de la comprensión
racional.
Luego se definió la fuente del conocimiento.
El conocimiento empírico planteaba que “nada existe en la mente que no haya pasado antes por los sentidos”.
Otro principio es el de la inducción, plantea que las reglas
generales se obtienen por contacto con repetidas asociaciones entre sus
elementos. Ésta teoría se formalizo con el positivismo lógico,
sostiene que todo el conocimiento se pueda caracterizar mediante teorías
relacionadas, en última instancia, con oraciones de observación que
corresponden a entradas sensoriales. La teoría de la conformación trato
de comprender cómo se puede obtener conocimiento a partir de la experiencia.
La relación que existe entre conocimiento y
acción es fundamental para la inteligencia artificial al comprender
como se justifican determinadas acciones se puede entender cómo construir un
agente cuyas acciones sean racionales.
Los principales métodos del programa SPG, conjuntan el
análisis de medios y fines. Éste método es útil, pero no podrá definir que hay
que hacer cuando existen varias acciones que podemos obtener lo mismo o cuando
hay una acción que permite obtener lo que se desea.
Ø  LAS MATEMÁTICAS (del año 800 al
presente)
     La lógica data
desde Aristóteles, pero Bode introdujo un lenguaje formal para hacer
inferencias lógicas. Se constituyó la lógica de primer orden que se utiliza
actualmente como sistema básico de representación del conocimiento.
     Turing
demostró que existen algunas funciones que no son posibles calcular mediante la
máquina de Turing.
     Además,
la intratabilidad tuvo repercusiones. Una clase de problema se
denomina intratable, sí el lapso necesario para la resolución de casos
particulares de dicha clase crece al menos exponencialmente con el tamaño de
tales casos. Es por ello que deberá optarse por dividir el problema
general de la producción de la conducta inteligente en sub-problemas
que sí sean tratables en vez de manejar un problema intratable. El segundo
concepto de la complejidad, es la reducción, que es la
transformación general de una clase de problema a otros, de manera que la
solución de la primera clase se obtenga reduciendo ésta a problemas que
pertenecen a la segunda y resolviendo éstos.
     La
tercer gran contribución es la teoría de la probabilidad. Se
presento como posibles resultados de los juegos de apuestas. La probabilidad
ayudo al manejo de mediciones con incertidumbre y teorías incompletas. Birml
considero la probabilidad como un “grado subjetivo de creencia” más que como un
índice de objetivo de resultados.
     En
la teoría de las decisiones, se combinan la teoría de la
probabilidad con la teoría de la utilidad y se cuenta así con la primer teoría
general que permite discernir entre acciones buenas y acciones malas.
FUENTE DE LA IMAGEN:  http://noticias.universia.es/ciencia-tecnologia/noticia/2017/02/23/1149389/somos-malos-matematicas.html
Ø  LA PSICOLOGÍA (de 1879 al
presente)
     El
movimiento conductista fue una respuesta contra el subjetivismo y rechazaba
sistemáticamente toda teoría en la que intervinieran procesos mentales. Se
abocaron en el estudio exclusivo de mediciones objetivas de las
percepciones(estímulos) experimentadas por animales y de los resultados
obtenidos(respuestas). Elaboraciones del tipo mental como el conocimiento,
creencias, objetivos y pasos del razonamiento quedaron descartadas.
     La psicología
cognoscitiva, se caracterizó por la noción de que el cerebro posee y
procesa información. La percepción entraña cierto tipo de inferencia lógica
inconsciente.
Crait
encontró la pieza faltante entre el estímulo y la respuesta, afirma que creencias,
objetivos y pasos del razonamiento son válidos y útiles elementos en una teoría
del comportamiento humano. Crait establece tres condiciones para los
agentes basados en el conocimiento:
                           1_
el estímulo deberá ser traducido a una representación interna
2_
ésta representación se debe manipular mediante procesos cognoscitivos para así
derivar nuevas representaciones internas y 
                                                 3_
éstas se traducen en acciones.
     Actualmente
muchos psicólogos aceptan que “una teoría cognoscitiva deberá ser como
un programa de computadora”, tal teoría deberá definir la cognocíón cómo un
conjunto de procesos de transformación bien definidos que operan al nivel de la
información que transporta las señales de entrada.
Ø  LA INGENIERÍA
COMPUTACIONAL / INFORMÁTICA (de 1940 al presente)
     Para
que la inteligencia artificial sea real se necesita inteligencia y un artefacto. La computadora se reconoce cómo el artefacto con mayores
posibilidades de manifestar inteligencia.
     La
primera computadora moderna fue hecha por el equipo de Alan Turing en 1940 para
descifrar los mensajes de los animales.
     La
primera computadora programable fue la Z-3 inventada por Konrad Zuse en 1941. 
En
1945 invento el primer lenguaje de programación de alto nivel.
     En
Estados Unidos, armaron la primera computadora electrónica, la ABS en 1941.
     La
aparición de la IBM-701 en 1952 fue un avance, era la primera computadora que
rindiera dividendos a sus fabricantes.
     Con
cada nueva generación de hardware de computación se han logrado aumentar en velocidad, capacidad
y descenso de precio.
     La
inteligencia artificial debe al área de software de la informática, pues lo ha
dotado de sistemas operativos, lenguajes de programación y herramientas necesarias
para escribir programas modernos.    
Ø  LA LINGÜÍSTICA (de 1957 al
presente)
En 1957
Skinmer público un enfoque conductista al aprendizaje del lenguaje.
La lingüística moderna y la inteligencia artificial
nacieron al mismo tiempo o bien crecieron juntas y se cruzaron en el campo de
lingüística ocupacional o procesamiento del lenguaje natural que se concentra
en el uso del lenguaje.
Chonslly demostró como la teoría conductista no
abordaba el tema de la creatividad en el lenguaje. La teoría de Chonslly poseía
la formalidad suficiente como para permitir su programación.
A continuación, se determinará brevemente en contexto “los
enfoques” generales de la inteligencia artificial:
ü 
ACTUAR CÓMO HUMANOS: EL ENFOQUE DE LA PRUEBA DE
TURING
Una conducta inteligente fue definida
como la capacidad de lograr eficiencia a nivel humano en todas las actividades
del tipo cognoscitivo (de lo que es capaz de conocer) suficiente para engañar
un evaluador. La prueba era que un humano interrogase a una computadora por
medio de un teletipo. La prueba se consideraba aprobada sí el evaluador era
incapaz de determinar sí una computadora o un humano era quién había respondido
las preguntas.
La computadora debía ser capaz de:
·        
procesar un lenguaje natural, para poder
establecer comunicación satisfactoria (sea en ingles o cualquier otro lenguaje)
·        
representar el conocimiento, para guardar tosa
la información que se le haya dado antes o durante el interrogativo.
·        
razonar automáticamente, para utilizar la
información guardada al responder, preguntar y obtener nuevas conclusiones.
·        
autoaprendizaje de la máquina, para que se adapte
a nuevas circunstancias y para detectar y extrapolar esquemas determinados.
En la prueba total de turing, se utiliza
una señal de video para que el evaluador pueda calificar la capacidad de
percepción del evaluado y también para que aquel pueda pasar objetos físicos.
La computadora debe estar dotada de:
·        
vista, que le permita percibir
objetos.
·        
robótica, para desplazar objetos.
ü 
PENSAR CÓMO HUMANO: EL ENFOQUE DEL MODELO
COGNOSCITIVO 
En el campo interdisciplinario de la ciencia
cognoscitiva concurren modelos computacionales de inteligencia artificial y
técnicas experimentales de psicología para intentar elaborar teorías precisas y
verificables del funcionamiento de la mente humana.
El enfoque de éste modelo, no sólo bastó con que su
programa resuelva correctamente los problemas, sino que se interesa por seguir
la pista de los pasos de razonamiento y compararla con la ruta seguida por
sujetos humanos.
ü 
PENSAR RACIONALMENTE: EL ENFOQUE DE
LAS LEYES DEL PENSAMIENTO
Aristóteles codificó la “manera correcta de pensar”,
procesos de pensamiento irrefutables. Sus silogismos son
esquemas de estructuras de argumentación mediante a las que siempre se llega a
conclusiones correctas, sí se parte de premisas correctas. Aristóteles se
imaginó el campo de la lógica.
En la inteligencia artificial, la traducción logística
se esfuerza por elaborar programas, que contando con tiempo y memoria
suficiente puedan describir un problema en notación lógica y encontrarle
solución para crear sistemas inteligentes.
El enfoque tiene dos obstáculos. Primero no es
fácil recibir un conocimiento informal y expresarlo en los términos formales.
En segundo lugar, hay una diferencia entre la posibilidad de resolver
un problema “en principio” y realmente hacerlo en la práctica.
Si bien los dos obstáculos anteriores están presentes
en todo intento de construir sistemas de razonamiento computacional, fue en la
traducción logística en donde surgieron por primera vez, debido a que la
capacidad de los sistemas de representación y de razonamiento está bien
definido y estudiado.
ü 
ACTUAR EN FORMA RACIONAL: EL ENFOQUE
DEL AGENTE RACIONAL 
Se considera la inteligencia artificial como
el estudio y construcción de agentes racionales. Entendiéndose por agente,
algo capaz de percibir y actuar. Actuar racionalmente es
actuar de manera tal que se logren los objetivos deseados con base en ciertos
supuestos.
El enfoque de la inteligencia artificial según las “Leyes
del pensamiento”, todo el énfasis se ponía en hacer inferencias
correctas. 
La obtención de éstas inferencias aveces forman parte
de un agente racional, con lo que se actuará de conformidad con tal
racionamiento. Sin embargo, el efectuar una inferencia correcta no siempre
depende de la racionalidad, ya que existen situaciones en la que no existe algo
que se pueda considerar lo que correctamente debería hacerse, sin embargo, hay
que decidirse por un curso de acción. Hay maneras de actuar racionalmente como
los reflejos que de ninguna manera entrañan inferencia alguna.
El enfoque del diseño de un agente racional ofrece
sus ventajas. La primera es más general que el enfoque de las “Leyes
del pensamiento”, dado que efectúan inferencias correctas, es sólo un
mecanismo útil para garantizar la racionalidad, pero no es un mecanismo
necesario. 
Segundo, la conducta humana se adapta bien sólo en
un entorno específico. Sí en cambio el agente racional es más afín a la
manera como se ha producido al avance científico, se define claramente lo que
será la norma de racionalidad, norma que es de aplicación general.

FUENTE DE LA IMAGEN: http://www.ubo.cl/boletin/inteligencia-artificial-la-revolucion-tecnologica-del-siglo-xxi/
_______________________________________________________________________________________________________________________
 ➤ CLICK PARA VOLVER A LA SECCIÓN DEL: CORTE I 👈
➤ IR AL SIGUIENTE PUNTO: PROBLEMAS DE LA INTELIGENCIA ARTIFICIAL 👈
➤ IR AL SIGUIENTE PUNTO: PROBLEMAS DE LA INTELIGENCIA ARTIFICIAL 👈






No hay comentarios:
Publicar un comentario