La robótica es la rama de la tecnología que se dedica al diseño, construcción, operación, disposición estructural, manufactura y aplicación de los robots.La robótica combina diversas disciplinas como son: la mecánica, la electrónica, la informática, la inteligencia artificial, la ingeniería de control y la física.Otras áreas importantes en robótica son el álgebra, los autómatas programables, la animatrónica y las máquinas de estados.
Historia de la robótica
La historia de la robótica va unida a la construcción de "artefactos", que trataban de materializar el deseo humano de crear seres a su semejanza y que lo descargasen del trabajo. El ingeniero español Leonardo Torres Quevedo (GAP) (que construyó el primer mando a distancia para su automóvil mediantetelegrafía sin hilo,[cita requerida] el ajedrecista automático, el primer transbordador aéreo y otros muchos ingenios) acuñó el término "automática" en relación con la teoría de la automatización de tareas tradicionalmente asociadas.
Karel Čapek, un escritor checo, acuñó en 1921 el término "Robot" en su obra dramática Rossum's Universal Robots / R.U.R., a partir de la palabra checarobota, que significa servidumbre o trabajo forzado. El término robótica es acuñado por Isaac Asimov, definiendo a la ciencia que estudia a los robots. Asimov creó también las Tres Leyes de la Robótica. En la ciencia ficción el hombre ha imaginado a los robots visitando nuevos mundos, haciéndose con el poder, o simplemente aliviando de las labores caseras.
Clasificación de los robots
Según su cronología
La que a continuación se presenta es la clasificación más común:
- 1 GENERACION
- 2 GENERACION
- 3 GENERACION
- 4 GENERACION
SEGUN SU ESTRUCTURA
La estructura, es definida por el tipo de configuración general del Robot, puede ser metamórfica. El concepto de metamorfismo, de reciente aparición, se ha introducido para incrementar la flexibilidad funcional de un Robot a través del cambio de su configuración por el propio Robot. El metamorfismo admite diversos niveles, desde los más elementales (cambio de herramienta o de efecto terminal), hasta los más complejos como el cambio o alteración de algunos de sus elementos o subsistemas estructurales. Los dispositivos y mecanismos que pueden agruparse bajo la denominación genérica del Robot, tal como se ha indicado, son muy diversos y es por tanto difícil establecer una clasificación coherente de los mismos que resista un análisis crítico y riguroso. La subdivisión de los Robots, con base en su arquitectura, se hace en los siguientes grupos: poliarticulados, móviles, androides, zoomórficos e híbridos.
- POLIARTICULADOS
En este grupo se encuentran los Robots de muy diversa forma y configuración, cuya característica común es la de ser básicamente sedentarios (aunque excepcionalmente pueden ser guiados para efectuar desplazamientos limitados) y estar estructurados para mover sus elementos terminales en un determinado espacio de trabajo según uno o más sistemas de coordenadas, y con un número limitado de grados de libertad. En este grupo, se encuentran los manipuladores, los Robots industriales, los Robots cartesianos y se emplean cuando es preciso abarcar una zona de trabajo relativamente amplia o alargada, actuar sobre objetos con un plano de simetría vertical o reducir el espacio ocupado en el suelo.2. Móviles
Son Robots con gran capacidad de desplazamiento, basados en carros o plataformas y dotados de un sistema locomotor de tipo rodante. Siguen su camino por telemando o guiándose por la información recibida de su entorno a través de sus sensores. Estos Robots aseguran el transporte de piezas de un punto a otro de una cadena de fabricación. Guiados mediante pistas materializadas a través de la radiación electromagnética de circuitos empotrados en el suelo, o a través de bandas detectadas fotoeléctricamente, pueden incluso llegar a sortear obstáculos y están dotados de un nivel relativamente elevado de inteligencia.
- ANDROIDES
Son Robots que intentan reproducir total o parcialmente la forma y el comportamiento cinemática del ser humano. Actualmente, los androides son todavía dispositivos muy poco evolucionados y sin utilidad práctica, y destinados, fundamentalmente, al estudio y experimentación. Uno de los aspectos más complejos de estos Robots, y sobre el que se centra la mayoría de los trabajos, es el de la locomoción bípeda. En este caso, el principal problema es controlar dinámica y coordinadamente en el tiempo real el proceso y mantener simultáneamente el equilibrio del Robot.
- ZOOMORFOLOGICOS
Los Robots zoomórficos, que considerados en sentido no restrictivo podrían incluir también a los androides, constituyen una clase caracterizada principalmente por sus sistemas de locomoción que imitan a los diversos seres vivos. A pesar de la disparidad morfológica de sus posibles sistemas de locomoción es conveniente agrupar a los Robots zoomórficos en dos categorías principales: caminadores y no caminadores. El grupo de los Robots zoomórficos no caminadores está muy poco evolucionado. Los experimentos efectuados en Japón basados en segmentos cilíndricos biselados acoplados axialmente entre sí y dotados de un movimiento relativo de rotación. Los Robots zoomórficos caminadores multípedos son muy numerosos y están siendo objeto de experimentos en diversos laboratorios con vistas al desarrollo posterior de verdaderos vehículos terrenos, piloteados o autónomos, capaces de evolucionar en superficies muy accidentadas. Las aplicaciones de estos Robots serán interesantes en el campo de la exploración espacial y en el estudio de los volcanes.
- HIBRIDOS
Corresponden a aquellos de difícil clasificación, cuya estructura se sitúa en combinación con alguna de las anteriores ya expuestas, bien sea por conjunción o por yuxtaposición. Por ejemplo, un dispositivo segmentado articulado y con ruedas, es al mismo tiempo, uno de los atributos de los Robots móviles y de los Robots zoomórficos.
INTELIGENCIA ARTIFICIAL
En ciencias de la computación se denomina inteligencia artificial (IA) a la capacidad de razonar de un agente no vivo. John McCarthy, acuñó el término en 1956, la definió: "Es la ciencia e ingenio de hacer máquinas inteligentes, especialmente programas de cómputo inteligentes."
- Búsqueda del estado requerido en el conjunto de los estados producidos por las acciones posibles.
- Algoritmos genéticos (análogo al proceso de evolución de las cadenas de ADN).
- Redes neuronales artificiales (análogo al funcionamiento físico del cerebro de animales y humanos).
- Razonamiento mediante una lógica formal análogo al pensamiento abstracto humano.
También existen distintos tipos de percepciones y acciones, pueden ser obtenidas y producidas, respectivamente por sensores físicos y sensores mecánicos en máquinas, pulsos eléctricos u ópticos en computadoras, tanto como por entradas y salidas de bits de un software y su entorno software.
Varios ejemplos se encuentran en el área de control de sistemas, planificación automática, la habilidad de responder a diagnósticos y a consultas de los consumidores, reconocimiento de escritura, reconocimiento del habla y reconocimiento de patrones. Los sistemas de IA actualmente son parte de la rutina en campos como economía, medicina, ingeniería y la milicia, y se ha usado en gran variedad de aplicaciones de software, juegos de estrategia como ajedrez de computador y otrosvideojuegos.
ANDROIDE
Androide es la denominación que se le da a un robot u organismo sintético antropomorfo que, además de imitar la apariencia humana, imita algunos aspectos de su conducta de manera autónoma. Es un término mencionado por primera vez por Alberto Magno en 1270 y popularizado por el autor francésAuguste Villiers en su novela de 1886 L'Ève future. Etimológicamente "androide" se refiere a los robots humanoides de fisionomía masculina, a los robots de apariencia femenina se les llama ocasionalmente ginoides, principalmente en las obras de ciencia ficción, aunque en el lenguaje coloquial el término androide suele usarse para ambos casos.
Androides en la cultura popular
Un robot humanoide que se limita a imitar los actos y gestos de un controlador humano, no es visto por el público como un verdadero androide, sino como una simple marioneta animatrónica. El androide siempre ha sido representado como una entidad que imita al ser humano tanto en apariencia, como en capacidad mental e iniciativa. Antes incluso de haber visto un verdadero robot en acción, la mayoría de las personas asocian la idea de robot con la de androide, debido a su extrema popularidad como cliché de la ciencia ficción.
La actitud de base entre el público frente a los androides varía en función del bagaje cultural que posea dicho público. En la cultura occidental la criatura humanoide, fabricada casi siempre por un sabio, es con bastante frecuencia un monstruo que se rebela contra su creador y en ocasiones lo destruye como castigo por su hubris; y el primero de los cuales no es necesariamente el monstruo de Frankenstein de Mary Shelley. Bien que dicho monstruo sea fácilmente el más famoso.
Desde los Grecia Antigua existen leyendas y folklore narrando sobre seres humanoides fabricados en metal por el artesano y herrero de los dioses, Hefesto. Aunque el carácter monstruoso del androide parece haberse ganado con la cristianización del mundo occidental.
De hecho es tan notorio este fenómeno, que el reconocido experto en inteligencia artificial Marvin Minsky, llegó a narrar como en ocasiones llegaba a sentirse incómodo frente a una de sus creaciones, el androide Cog, cuando éste presentaba conductas inesperadas.
En otras culturas las reacciones pueden ser bastante diferentes. Un ejemplo meritorio es la actitud japonesa de cara a los androides, donde el público no teme la antropomorfización de las máquinas, y aceptan por lo tanto con menos problemas la idea que un robot tenga apariencia humana, para poder así interactuar más fácilmente con seres humanos.
Androides en la ciencia
En la robótica la actitud de los expertos hacia los autómatas humanoides ha vacilado entre el entusiasmo y el escepticismo. Entusiasmo porque un robot humanoide puede tener enormes ventajas para cierta clase de funciones, escepticismo debido a que para que una máquina robótica sea útil, ya se ha demostrado con ejemplos que la forma humana no es necesaria, y a veces es incluso un estorbo (respecto a las capacidades actuales de los androides).
La construcción de un robot que imite convincentemente aunque sea una parte ínfima de la libertad de gestos y movimiento humanos, es una tarea de una enorme complejidad técnica. De hecho, es un problema que en varias instancias está todavía abierto a la investigación y a la mejora, aunque ya existen varios ejemplos bastante meritorios en ese sentido, de robots humanoides que imitan ciertas conductas y capacidades humanas. Un ejemplo conocido en este sentido, es el robot ASIMO de Honda, que es capaz de marchar en dos pies, de subir y bajar escaleras y de otra serie de proezas de locomociónbípeda.
MAQUINAS FINITAS
Se denomina máquina de estados a un modelo de comportamiento de un sistema con entradas y salidas, en donde las salidas dependen no sólo de las señales de entradas actuales sino también de las anteriores.
Las máquinas de estados se definen como un conjunto de estados que sirve de intermediario en esta relación de entradas y salidas, haciendo que el historial de señales de entrada determine, para cada instante, un estado para la máquina, de forma tal que la salida depende únicamente del estado y las entradas actuales.
Una máquina de estados se denomina máquina de estados finitos (FSM por finite state machine) si el conjunto de estados de la máquina es finito, este es el único tipo de máquinas de estados que podemos modelar en un computador en la actualidad; debido a esto se suelen utilizar los términos máquina de estados y máquina de estados finitos de forma intercambiable. Sin embargo un ejemplo de una máquina de estados infinitos sería un computador cuánticoesto es debido a que los Qubit que utilizaría este tipo de computadores toma valores continuos, en contraposición los bits toman valores discretos (0 ó 1). Otro buen ejemplo de una máquina de estados infinitos es una Máquina universal de Turing la cual se puede definir teóricamente con una "cinta" o memoria infinita.
La representación de una máquina de estados se realiza mediante un Diagrama de estados, sin embargo también es posible utilizar un Diagrama de flujo.
Es posible clasificar las máquinas de estados en aceptoras o transductoras:
Aceptoras (también llamadas reconocedoras o discriminadoras): Son aquellas en donde la salida es binaria (sí/no), depende únicamente del estado y existe un estado inicial. Puede decirse, entonces, que cuando la máquina produce una salida "positiva" (es decir, un "si"), es porque ha "reconocido" o "aceptado" la secuencia de entrada. En las máquinas de estados aceptoras, los estados con salida "positiva" se denominan estados finales.
Transductoras: Son las más generales, que convierten una secuencia de señales de entrada en una secuencia de salida, pudiendo ésta ser binaria o más compleja, depender de la entrada actual (no sólo del estado) y pudiendo también prescindirse de un estado inicial.
La bibliografía a veces llama autómata finito a las aceptoras, mientras que en otros casos se emplea autómata como sinónimo de máquina de estados sin importar su tipo.
Las aceptoras son los de mayor interés en la Teoría de la Computación, más precisamente en la Teoría de autómatas, siendo éstas ramas de la matemática. Las transductoras, en cambio, lo son en la electrónica digital y la computación práctica. Es por eso que, por lo general, en los textos sobre matemática y ciencias de la computación se suele hablar de autómatas (y se refieren a las aceptoras) mientras que los de electrónica y computación práctica hablan de máquinas de estados (y se refieren a los transductoras).
En UML (Lenguaje Unificado de Modelado), dice que una máquina de estado es aquel comportamiento que permite hacer un seguimiento de la vida de un objeto en el transcurso de un tiempo finito.
RED NEURONAL ARTIFICIAL
Las redes de neuronas artificiales (denominadas habitualmente como RNA o eninglés como: "ANN"1 ) son un paradigma de aprendizaje y procesamiento automático inspirado en la forma en que funciona el sistema nervioso de los animales. Se trata de un sistema de interconexión de neuronas que colaboran entre sí para producir un estímulo de salida. En inteligencia artificial es frecuente referirse a ellas como redes de neuronas o redes neuronales.
Historia
Los primeros modelos de redes neuronales datan de 1943 por los neurólogos McCulloch y Pitts. Años más tarde, en 1949, Donald Hebb desarrolló sus ideas sobre el aprendizaje neuronal, quedando reflejado en la "regla de Hebb". En 1958, Rosemblatt desarrolló el perceptrón simple, y en 1960, Widrow y Hoff desarrollaron el ADALINE, que fue la primera aplicación industrial real.
En los años siguientes, se redujo la investigación, debido a la falta de modelos de aprendizaje y el estudio de Minsky y Papert sobre las limitaciones del perceptrón. Sin embargo, en los años 80, volvieron a resurgir las RNA gracias al desarrollo de la red de Hopfield, y en especial, al algoritmo de aprendizaje de retropropagación ideado por Rumelhart y McLellan en 1986 que fue aplicado en el desarrollo de los perceptrones multicapa. 2
Propiedades
Una función de propagación (también conocida como función de excitación), que por lo general consiste en el sumatorio de cada entrada multiplicada por el peso de su interconexión (valor neto). Si el peso es positivo, la conexión se denomina excitatoria; si es negativo, se denomina inhibitoria.Una red neuronal se compone de unidades llamadas neuronas. Cada neurona recibe una serie de entradas a través de interconexiones y emite una salida. Esta salida viene dada por tres funciones:
Una función de activación, que modifica a la anterior. Puede no existir, siendo en este caso la salida la misma función de propagación.
Una función de transferencia, que se aplica al valor devuelto por la función de activación. Se utiliza para acotar la salida de la neurona y generalmente viene dada por la interpretación que queramos darle a dichas salidas. Algunas de las más utilizadas son la función sigmoidea (para obtener valores en el intervalo [0,1]) y la tangente hiperbólica(para obtener valores en el intervalo [-1,1]).
Diseño y programación de una RNA (red neuronal artificial)
Con un paradigma convencional de programación en ingeniería del software, el objetivo del programador es modelar matemáticamente (con distintos grados de formalismo) el problema en cuestión y posteriormente formular una solución (programa) mediante un algoritmo codificado que tenga una serie de propiedades que permitan resolver dicho problema. En contraposición, la aproximación basada en las RNA parte de un conjunto de datos de entrada suficientemente significativo y el objetivo es conseguir que la red aprenda automáticamente las propiedades deseadas. En este sentido, el diseño de la red tiene menos que ver con cuestiones como los flujos de datos y la detección de condiciones, y más que ver con cuestiones tales como la selección del modelo de red, la de las variables a incorporar y el preprocesamiento de la información que formará el conjunto de entrenamiento. Asimismo, el proceso por el que los parámetros de la red se adecuan a la resolución de cada problema no se denomina genéricamente programación sino que se suele denominarentrenamiento neuronal.
Por ejemplo en una red que se va a aplicar al diagnóstico de imágenes médicas; durante la fase de entrenamiento el sistema recibe imágenes de tejidos que se sabe son cancerígenos y tejidos que se sabe son sanos, así como las respectivas clasificaciones de dichas imágenes. Si el entrenamiento es el adecuado, una vez concluido, el sistema podrá recibir imágenes de tejidos no clasificados y obtener su clasificación sano/no sano con un buen grado de seguridad. Las variables de entrada pueden ser desde los puntos individuales de cada imagen hasta un vector de características de las mismas que se puedan incorporar al sistema (por ejemplo, procedencia anatómica del tejido de la imagen o la edad del paciente al que se le extrajo la muestra).
Estructura
La mayoría de los científicos coinciden en que una RNA es muy diferente en términos de estructura de un cerebro animal. Al igual que el cerebro, una RNA se compone de un conjunto masivamente paralelo de unidades de proceso muy simples y es en las conexiones entre estas unidades donde reside lainteligencia de la red. Sin embargo, en términos de escala, un cerebro es muchísimo mayor que cualquier RNA creada hasta la actualidad, y las neuronas artificiales también son más simples que su contrapartida animal.
Biológicamente, un cerebro aprende mediante la reorganización de las conexiones sinápticas entre las neuronas que lo componen. De la misma manera, las RNA tienen un gran número de procesadores virtuales interconectados que de forma simplificada simulan la funcionalidad de las neuronas biológicas. En esta simulación, la reorganización de las conexiones sinápticas biológicas se modela mediante un mecanismo de pesos, que son ajustados durante la fase de aprendizaje. En una RNA entrenada, el conjunto de los pesos determina el conocimiento de esa RNA y tiene la propiedad de resolver el problema para el que la RNA ha sido entrenada.
Por otra parte, en una RNA, además de los pesos y las conexiones, cada neurona tiene asociada una función matemática denominada función de transferencia. Dicha función genera la señal de salida de la neurona a partir de las señales de entrada. La entrada de la función es la suma de todas las señales de entrada por el peso asociado a la conexión de entrada de la señal. Algunos ejemplos de entradas son la función escalón de Heaviside, la lineal o mixta, la sigmoide y la función gaussiana, recordando que la función de transferencia es la relación entre la señal de salida y la entrada.
Autómata (mecánico)
Autómata, del latín automăta y este del griego automatos (αὐτόματος), espontáneo o con movimiento propio. Según la RAE, máquina que imita la figura y los movimientos de un ser animado. Un equivalente tecnológico en la actualidad serían los robots autónomos. Si el robot es antropomorfo se conoce como androide.
Históricamente los primeros autómatas se remotan en la Prehistoria donde las estatuas de algunos de sus dioses o reyes despedían fuego de sus ojos, como fue el caso de una estatua de Osiris, otras poseían brazos mecánicos operados por los sacerdotes del templo, y otras, como la de Memon de Etiopía emitían sonidos cuando los rayos del sol los iluminaba consiguiendo, de este modo, causar el temor y el respeto a todo aquel que las contemplara. Esta finalidad religiosa del autómata continuará hasta la Grecia clásica donde existían estatuas con movimiento gracias a las energías hidráulicas. Esos nuevos conocimientos quedan plasmados en el primer libro que trata la figura de los robots Autómata escrita por Herón de Alejandría (10 dC -70 dC) donde explica la creación de mecanismos, muchos basados en los principios de Philon o Arquímedes, realizados fundamentalmente como entretenimiento y que imitaban el movimiento, tales como aves que gorjean, vuelan y beben, estatuas que sirven vino o puertas automáticas todas producidas por el movimiento del agua, la gravedad o sistemas de palancas. También cabe destacar su “The automaton theatre” sobre su teatro de marionetas mecánicas que representaban la Guerra de Troya.
Aunque Heron es el primero en recopilar datos sobre los autómatas otros anteriores a él realizaron sus aportaciones como es el caso de Archytas (428 aC- 347 aC) inventor del tornillo y la polea y famoso por su paloma mecánica capaz de volar gracias a vapor de aire en propulsión. O el terrible sistema descrito por Polibio(200aC-118aC) y utilizado por Nabis, tirano de Esparta, que consistía en un artilugio con forma de mujer con clavos en su pecho y brazos y que abrazaba mortalmente a todo aquel que incumplía sus pagos. Y otros aún más antiguos, pero de más difícil autentificación, como el mítico Trono de Salomón, descrito en la Biblia y otros textos árabes como un árbol de bronce con pájaros cantores, leones y grifos mecánicos además de ser móvil, pudiendo elevarse desde el suelo hasta el techo.Históricamente los primeros autómatas se remotan en la Prehistoria donde las estatuas de algunos de sus dioses o reyes despedían fuego de sus ojos, como fue el caso de una estatua de Osiris, otras poseían brazos mecánicos operados por los sacerdotes del templo, y otras, como la de Memon de Etiopía emitían sonidos cuando los rayos del sol los iluminaba consiguiendo, de este modo, causar el temor y el respeto a todo aquel que las contemplara. Esta finalidad religiosa del autómata continuará hasta la Grecia clásica donde existían estatuas con movimiento gracias a las energías hidráulicas. Esos nuevos conocimientos quedan plasmados en el primer libro que trata la figura de los robots Autómata escrita por Herón de Alejandría (10 dC -70 dC) donde explica la creación de mecanismos, muchos basados en los principios de Philon o Arquímedes, realizados fundamentalmente como entretenimiento y que imitaban el movimiento, tales como aves que gorjean, vuelan y beben, estatuas que sirven vino o puertas automáticas todas producidas por el movimiento del agua, la gravedad o sistemas de palancas. También cabe destacar su “The automaton theatre” sobre su teatro de marionetas mecánicas que representaban la Guerra de Troya.
Aunque Heron es el primero en recopilar datos sobre los autómatas otros anteriores a él realizaron sus aportaciones como es el caso de Archytas (428 aC- 347 aC) inventor del tornillo y la polea y famoso por su paloma mecánica capaz de volar gracias a vapor de aire en propulsión. O el terrible sistema descrito por Polibio(200aC-118aC) y utilizado por Nabis, tirano de Esparta, que consistía en un artilugio con forma de mujer con clavos en su pecho y brazos y que abrazaba mortalmente a todo aquel que incumplía sus pagos. Y otros aún más antiguos, pero de más difícil autentificación, como el mítico Trono de Salomón, descrito en la Biblia y otros textos árabes como un árbol de bronce con pájaros cantores, leones y grifos mecánicos además de ser móvil, pudiendo elevarse desde el suelo hasta el techo.
TECNOLOGIA DE COMPUTADORES
Una computadora o computador (del inglés computer y este del latín computare -calcular), también denominada ordenador (del francés ordinateur, y este del latín ordinator), es una máquina electrónica que recibe y procesa datos para convertirlos en información útil. Una computadora es una colección de circuitos integrados y otros componentes relacionados que puede ejecutar con exactitud, rapidez y de acuerdo a lo indicado por un usuario o automáticamente por otro programa, una gran variedad de secuencias o rutinas de instrucciones que son ordenadas, organizadas y sistematizadas en función a una amplia gama de aplicaciones prácticas y precisamente determinadas, proceso al cual se le ha denominado con el nombre de programación y al que lo realiza se le llama programador. La computadora, además de la rutina o programa informático, necesita de datos específicos (a estos datos, en conjunto, se les conoce como "Input" en inglés ode entrada) que deben ser suministrados, y que son requeridos al momento de la ejecución, para proporcionar el producto final del procesamiento de datos, que recibe el nombre de "output" o de salida. La información puede ser entonces utilizada, reinterpretada, copiada, transferida, o retransmitida a otra(s) persona(s), computadora(s) o componente(s) electrónico(s) local o remotamente usando diferentes sistemas de telecomunicación, que puede ser grabada, salvada o almacenada en algún tipo de dispositivo o unidad de almacenamiento.
La característica principal que la distingue de otros dispositivos similares, como la calculadora no programable, es que es una máquina de propósito general, es decir, puede realizar tareas muy diversas, de acuerdo a las posibilidades que brinde los lenguajes de programación y el hardware.
LOGICA DIFUSA
La lógica difusa (también llamada lógica borrosa o lógica heurística) se basa en lo relativo de lo observado como posición diferencial. Este tipo de lógica toma dos valores aleatorios, pero contextualizados y referidos entre sí. Así, por ejemplo, una persona que mida 2 metros es claramente una persona alta, si previamente se ha tomado el valor de persona baja y se ha establecido en 1 metro. Ambos valores están contextualizados a personas y referidos a una medida métrica lineal.
Funcionamiento
La lógica difusa ("fuzzy logic" en inglés) se adapta mejor al mundo real en el que vivimos, e incluso puede comprender y funcionar con nuestras expresiones, del tipo "hace mucho calor", "no es muy alto", "el ritmo del corazón está un poco acelerado", etc.
La clave de esta adaptación al lenguaje, se basa en comprender los cuantificadores de cualidad para nuestras inferencias (en los ejemplos de arriba "mucho", "muy" y "un poco").
En la teoría de conjuntos difusos se definen también las operaciones de unión, intersección, diferencia, negación o complemento, y otras operaciones sobre conjuntos (ver también subconjunto difuso), en los que se basa esta lógica.
Para cada conjunto difuso, existe asociada una función de pertenencia para sus elementos, que indican en qué medida el elemento forma parte de ese conjunto difuso. Las formas de las funciones de pertenencia más típicas son trapezoidal, lineal y curva.
Se basa en reglas heurísticas de la forma SI (antecedente) ENTONCES (consecuente), donde el antecedente y el consecuente son también conjuntos difusos, ya sea puros o resultado de operar con ellos. Sirvan como ejemplos de regla heurística para esta lógica (nótese la importancia de las palabras "muchísimo", "drásticamente", "un poco" y "levemente" para la lógica difusa):
- SI hace muchísimo frío ENTONCES aumento drásticamente la temperatura.
- SI voy a llegar un poco tarde ENTONCES aumento levemente la velocidad.
Los métodos de inferencia para esta base de reglas deben ser sencillos, versátiles y eficientes. Los resultados de dichos métodos son un área final, fruto de un conjunto de áreas solapadas entre sí (cada área es resultado de una regla de inferencia). Para escoger una salida concreta a partir de tanta premisa difusa, el método más usado es el del centroide, en el que la salida final será el centro de gravedad del área total resultante.
Las reglas de las que dispone el motor de inferencia de un sistema difuso pueden ser formuladas por expertos, o bien aprendidas por el propio sistema, haciendo uso en este caso de redes neuronales para fortalecer las futuras tomas de decisiones.
Los datos de entrada suelen ser recogidos por sensores, que miden las variables de entrada de un sistema. El motor de inferencias se basa en chips difusos, que están aumentando exponencialmente su capacidad de procesamiento de reglas año a año.
Un esquema de funcionamiento típico para un sistema difuso podría ser de la siguiente manera:
En la figura, el sistema de control hace los cálculos con base en sus reglas heurísticas, comentadas anteriormente. La salida final actuaría sobre el entorno físico, y los valores sobre el entorno físico de las nuevas entradas (modificado por la salida del sistema de control) serían tomadas por sensores del sistema.
Por ejemplo, imaginando que nuestro sistema difuso fuese el climatizador de un coche que se autorregula según las necesidades: Los chips difusos del climatizador recogen los datos de entrada, que en este caso bien podrían ser la temperatura y humedad simplemente. Estos datos se someten a las reglas del motor de inferencia (como se ha comentado antes, de la forma SI... ENTONCES... ), resultando un área de resultados. De esa área se escogerá el centro de gravedad, proporcionándola como salida. Dependiendo del resultado, el climatizador podría aumentar la temperatura o disminuirla dependiendo del grado de la salida.
Lógica Difusa Compensatoria (LDC)
La LDC es un modelo lógico multivalente que permite la modelación simultánea de los procesos deductivos y de toma de decisiones. El uso de la LDC en los modelos matemáticos permite utilizar conceptos relativos a la realidad siguiendo patrones de comportamiento similares al pensamiento humano. Las características más importantes de estos modelos son: La flexibilidad, la tolerancia con la imprecisión, la capacidad para moldear problemas no-lineales y su fundamento en el lenguaje de sentido común.
La LDC utiliza la escala de la LD, la cual puede variar de 0 a 1 para medir el grado de verdad o falsedad de sus proposiciones, donde las proposiciones pueden expresarse mediante predicados. Un predicado es una función del universo X en el intervalo [0; 1], y las operaciones de conjunción, disyunción, negación e implicación, se definen de modo que restringidas al dominio [0; 1] se obtenga la Lógica Booleana.
Las distintas formas de definir las operaciones y sus propiedades determinan diferentes lógicas multivalentes que son parte del paradigma de la LD. Las lógicas multivalentes se definen en general como aquéllas que permiten valores intermedios entre la verdad absoluta y la falsedad total de una expresión. Entonces el 0 y el 1 están asociados ambos a la certidumbre y la exactitud de lo que se afirma o se niega y el 0,5 a la vaguedad y la incertidumbre máximas. En los procesos que requieren toma de decisiones, el intercambio con los expertos lleva a obtener formulaciones complejas y sutiles que requieren de predicados compuestos. Los valores de verdad obtenidos sobre estos predicados compuestos deben poseer sensibilidad a los cambios de los valores de verdad de los predicados básicos.
Esta necesidad se satisface con el uso de la LDC, que renuncia al cumplimiento de las propiedades clásicas de la conjunción y la disyunción, contraponiendo a éstas la idea de que el aumento o disminución del valor de verdad de la conjunción o la disyunción provocadas por el cambio del valor de verdad de una de sus componentes, puede ser “compensado” con la correspondiente disminución o aumento de la otra. Estas propiedades hacen posible de manera natural el trabajo de traducción del lenguaje natural al de la Lógica, incluidos los predicados extensos si éstos surgen del proceso de modelación.
La modelización de la vaguedad en la Lógica Difusa Compensatoria
En la LDC la modelización de la vaguedad se logra a través de variables lingüísticas, lo que permite aprovechar el conocimiento de los expertos, al contrario de lo que ocurre en otros métodos más cercanos a las cajas negras y exclusivamente basados en datos, como por ejemplo las redes neuronales.
Existen autores como Jesús Cejas Montero en su Artículo La Lógica Difusa Compensatoria publicado en el 2011 por la Revista Ingeniería Industrial del Instituto Superior Politécnico José Antonio Echeverría , que marcó un hito en la difusión de la LDC, que recomiendan el uso de funciones de pertenencia sigmoidales para funciones crecientes o decrecientes. Los parámetros de estas funciones quedan determinados fijando dos valores. El primero de ellos es el valor a partir del cual se considera que la afirmación contenida en el predicado es más cierta que falsa, por ejemplo pudiera establecerse a partir de 0.5. El segundo es el valor para el cual el dato hace casi inaceptable la afirmación correspondiente, por ejemplo pudiera establecerse a partir de 0.1.
En la actualidad existe un Sistema de Soporte a Decisiones Basado en Árboles con Operadores de Lógica Difusa cuyo nombre es Fuzzy Tree Studio 1.0, desarrollado en forma conjunta entre Universidad CAECE y la Universidad Nacional de Mar del Plata (Argentina), que posee un módulo que trabaja con la LDC. Ello permite al agente decisor despreocuparse por el trasfondo matemático y centrarse en la formulación verbal del modelo que le permita tomar una decisión.
En general los modelos basados en LDC combinan la experiencia y el conocimiento con datos numéricos, por lo que puede ser visto como una “caja gris”. Los modelos basados en LD pueden verse como “cajas blancas”, dado que permiten ver su estructura explícitamente. En contraposición a los modelos basados en datos exclusivamente, como las Redes Neuronales, que corresponderían a “cajas negras”.
Estos modelos pueden ser optimizados cuando se dispone de datos reales numéricos. El método de optimización puede provenir de la Inteligencia Computacional. En este contexto, los Algoritmos Genéticos presentan una alternativa interesante. Este enfoque constituye el fundamento de los sistemas híbridos.
La tendencia de las investigaciones sobre gestión empresarial, mediante las técnicas de la LDC, está orientada a la creación de sistemas híbridos que integren esta con las habilidades de las Redes Neuronales y las posibilidades de los Algoritmos Genéticos y la Lógica de Conjuntos. La creación e implementación de estos sistemas mixtos permite resolver problemas complejos y de difícil solución; en las que se usan estimaciones subjetivas sustentadas en la experiencia y en la información disponible, como son: modelos de decisión utilizados con criterios de optimización, ubicación de centros comerciales, estrategia de entrada a mercados, selección de carteras de productos y servicios, desarrollo de aplicaciones informáticas, métodos para problemas de descubrimiento de conocimiento, métodos para evaluar la eficiencia de diferentes tipos de instituciones, entre otras.
La Lógica Difusa Compensatoria es un modelo lógico multivalente que renuncia a varios axiomas clásicos para lograr un sistema idempotente y “sensible”, al permitir la “compensación” de los predicados. En la LD el valor de verdad de la conjunción es menor o igual a todas las componentes, mientras que el valor de verdad de la disyunción es mayor o igual a todas las componentes. La renuncia de estas restricciones constituye la idea básica de la LDC.
En conclusión la LDC es un nuevo enfoque para los sistemas multivalentes basado en la Media Geométrica que, además de aportar un sistema formal con propiedades lógicas de notable interés, constituye un puente entre la Lógica y la Toma de Decisiones. La LDC entra a formar parte del arsenal de métodos para la evaluación multicriterio, adecuándose especialmente a aquellas situaciones en que el agente decisor puede describir verbalmente, frecuentemente en forma ambigua, la heurística que utiliza cuando ejecuta acciones de evaluación/clasificación multicriterio. Sin embargo, la consistencia de la plataforma lógica dota a esta propuesta de una capacidad de formalización del razonamiento que rebasa los enfoques descriptivos de los procesos de decisión. Es una oportunidad para usar el lenguaje como elemento clave de comunicación en la construcción de modelos semánticos que faciliten la evaluación, la toma de decisiones y el descubrimiento de conocimiento.
Aplicaciones
Aplicaciones generales
La lógica difusa se utiliza cuando la complejidad del proceso en cuestión es muy alta y no existen modelos matemáticos precisos, para procesos altamente no lineales y cuando se envuelven definiciones y conocimiento no estrictamente definido (impreciso o subjetivo).
En cambio, no es una buena idea usarla cuando algún modelo matemático ya soluciona eficientemente el problema, cuando los problemas son lineales o cuando no tienen solución.
Esta técnica se ha empleado con bastante éxito en la industria, principalmente en Japón, extendiéndose sus aplicaciones a multitud de campos. La primera vez que se usó de forma importante fue en el metro japonés, con excelentes resultados. Posteriormente se generalizó según la teoría de la incertidumbre desarrollada por el matemático y economista español Jaume Gil Aluja.
A continuación se citan algunos ejemplos de su aplicación:
- Sistemas de control de acondicionadores de aire
- Sistemas de foco automático en cámaras fotográficas
- Electrodomésticos familiares (frigoríficos, lavadoras...)
- Optimización de sistemas de control industriales
- Sistemas de escritura
- Mejora en la eficiencia del uso de combustible en motores
- Sistemas expertos del conocimiento (simular el comportamiento de un experto humano)
- Tecnología informática
- Bases de datos difusas: Almacenar y consultar información imprecisa. Para este punto, por ejemplo, existe el lenguaje FSQL.
- ...y, en general, en la gran mayoría de los sistemas de control que no dependen de un Sí/No.
Lógica difusa en inteligencia artificial
En Inteligencia artificial, la lógica difusa, o lógica borrosa se utiliza para la resolución de una variedad de problemas, principalmente los relacionados con control de procesos industriales complejos y sistemas de decisión en general, la resolución y la compresión de datos. Los sistemas de lógica difusa están también muy extendidos en la tecnología cotidiana, por ejemplo en cámaras digitales, sistemas de aire acondicionado, lavarropas, etc. Los sistemas basados en lógica difusa imitan la forma en que toman decisiones los humanos, con la ventaja de ser mucho más rápidos. Estos sistemas son generalmente robustos y tolerantes a imprecisiones y ruidos en los datos de entrada. Algunos lenguajes de programación lógica que han incorporado la lógica difusa serían por ejemplo las diversas implementaciones de Fuzzy PROLOG o el lenguaje Fril.
Consiste en la aplicación de la lógica difusa con la intención de imitar el razonamiento humano en la programación de computadoras. Con la lógicaconvencional, las computadoras pueden manipular valores estrictamente duales, como verdadero/falso, sí/no o ligado/desligado. En la lógica difusa, se usan modelos matemáticos para representar nociones subjetivas, como caliente/tibio/frío, para valores concretos que puedan ser manipuladas por los ordenadores.
En este paradigma, también tiene un especial valor la variable del tiempo, ya que los sistemas de control pueden necesitar retroalimentarse en un espacio concreto de tiempo, pueden necesitarse datos anteriores para hacer una evaluación media de la situación en un período anterior...
Ventajas e inconvenientes
Como principal ventaja, cabe destacar los excelentes resultados que brinda un sistema de control basado en lógica difusa: ofrece salidas de una forma veloz y precisa, disminuyendo así las transiciones de estados fundamentales en el entorno físico que controle. Por ejemplo, si el aire acondicionado se encendiese al llegar a la temperatura de 30º, y la temperatura actual oscilase entre los 29º-30º, nuestro sistema de aire acondicionado estaría encendiéndose y apagándose continuamente, con el gasto energético que ello conllevaría. Si estuviese regulado por lógica difusa, esos 30º no serían ningún umbral, y el sistema de control aprendería a mantener una temperatura estable sin continuos apagados y encendidos.
También está la indecisión de decantarse bien por los expertos o bien por la tecnología (principalmente mediante redes neuronales) para reforzar las reglas heurísticas iniciales de cualquier sistema de control basado en este tipo de lógica.
Holaaaaa :D
ResponderEliminarHola :3 Jjajajaj
Eliminar