SciELO - Scientific Electronic Library Online

 
 número1Aplicación Web para la toma de decisiones e- InformáticaSimulación de la demanda de suelo urbano en la ciudad de La Paz índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Articulo

Indicadores

    Links relacionados

    • No hay articulos citadosCitado por SciELO
    • No hay articulos similaresSimilares en SciELO

    Bookmark

    Revista Investigación y Tecnología

    versión impresa ISSN 2306-0522

    Rev Inv Tec  n.1 La Paz nov. 2012

     

    ARTÍCULO DE INVESTIGACIÓN

     

    Reconocimiento de caracteres
    con redes neuronales

     

    Character Recognition with Neural Networks

     

     

    MSc. Franz Cuevas Q.
    franzcq@gmail.com, fcuevas@umsa.bo

     

     


    RESUMEN

    El reconocimiento automático de caracteres, ya sean de letras o números de documentos impresos es muy fundamental, donde la transcripción llevaría mucho tiempo, si bien existen muchos adelantos como el reconocimiento óptico de caracteres OCR, aun están en la etapa de investigación para eliminar los errores de reconocimiento. El trabajo de investigación fue el estudio minucioso y la aplicación de las redes neuronales artificiales Backpropagation (multicapa) al reconocimiento de las 27 letras y 10 números, donde se valora el tamaño de las letras y se trabaja con el tipo de letra anal 8, el tamaño de las neuronas de entrada y salida es el tamaño del carácter (8 x Nro. Columnas), dos capas ocultas, con 8 neuronas cada una, Los experimentos muestran el entrenamiento o aprendizaje de las letras y números en un promedio de 104 y 85 iteraciones respectivamente, con un error máximo permitido de 0.10.

    Palabras clavé:

    Aprendizaje supervisado; Redes neuronales Artificiales; Reconocimiento de caracteres. Retropropagación


    ABSTRACT

    Automatic recognition of characters, either letters or numbers printed documents is very important, where transcription would be time consuming, while there are many advances such as optical character recognition OCR, are still in the research stage to eliminate errors recognition. The research work was the detailed study and application of backpropagation artificial neural networks (multilayer) the recognition of the 27 letters and 10 numbers, which assesses the size of the letters and works with the font arial 8, the size of the input and output neurons is the character size (8 x No Columns), two hidden layers with 8 neurons each, experiments show the training or learning letters and numbers on an average of 104 and 85 iterations respectively, with a maximum permissible error of 0.10.

    keywords:

    Supervised learning; artificial neural networks; Character Recognition; Backprogation


     

     

    INTRODUCCIÓN

    En 1888 Ramón y Cajal demostró que el sistema nervioso estaba compuesto por una red de células individuales, las neuronas, ampliamente conectadas entre si Pero no solo observó al microscopio los pequeños vacios que separaban unas neuronas de otras, sino que también estableció que la información fluye en la neurona desde las dendritas hacia el axón. atravesando el soma. (Bonifacio Martin, Alfredo Sanz, 2002) Ver figura 1.

    Para una red neuronal artificial RNA existen varias definiciones: Elemento computacional de procesamiento, como unidades similares a las del cerebro humano, que tiene la capacidad de procesar información y aprender de ella (Hilera 1995). Una forma de computación inspirada en modelos biológicos (Hilera 1995, Freeman 1993. Principe 1994) También se puede considerar, como una emulación a través de algoritmos formales de la conducta del cerebro humano, de captar, procesar, analizar, aprender y tomar una decisión (salida) FCQ. Actualmente aun existen y posiblemente seguirá existiendo instituciones públicas, privadas y personas particulares que tengan documentación impresa y en algunos casos manuscrito que deseen analizar procesar esta información utilizando un ordenador. Dependiendo de la cantidad se puede decidir posiblemente por dos soluciones a) La transcripción (funciona cuando es muy poco) b) Reconocimiento de manera automática, que involucra el reconocimiento de caracteres con un conjunto de métodos formales y algoritmos. Para este efecto se realizará el análisis de los caracteres (27 letras) y dígitos (10 números) en tamaño y en forma para la aplicación de las redes neuronales artificiales backprogation.

     

    METODOS

    ESTRUCTURA DE LOS MODELOS DE RNA

    McCulloch y Pitts en 1943 construyeron un modelo abstracto y simple de una neurona artificial, que es una unidad de cálculo que modela el comportamiento de una neurona natural. Este modelo es elemento básico y esencial de procesamiento y construcción de una red neuronal artificial. Ver figura 2. Generalmente el comportamiento de las neuronas biológicas es de tipo no lineal, y esto lo hace interesante, porque no se resuelven con las técnicas convencionales, aunque existe algún comportamiento de tipo lineal.

    Características de la neurona i

    Una neurona tiene cinco partes fundamentales que se describen a continuación (Bonifacio Martin, Alfredo Sanz):

    > Conjunto de entradas

    xj (t) (x1, x2,x3, ... xn)

    > Conjunto de Pesos, denominado pesos sinápticos de la neurona i, denotado por wij (wi1, wi2, ... win) , es la intensidad de interacción entre cada neurona presináptica j y la neurona postsinápíica i.

    > Función de propagación (también se denomina función de excitación). Representa el valor del potencial postsináptico:

    Por otro lado, si el peso es positivo, la conexión se llama excitatoria, quiere decir, que tendera a excitar a la neurona postsináptica. Si es negativo se llama inhibitoria, tendera a inhibirla

    > Función de activación Proporciona el estado de la activación actual

    ai(t) = fi(ai(t-1), hi(t))

    Existen varias funciones de activación, para la investigación se utilizara la función escalón y la función sigmoidal.

    > Función de salida

    Es la salida actual, yi(t) = Fi(ai(t))

    yi(t) = Fi(fi[ai(t-1), o(wij,xj(t))])

    La función de salida a veces se considera como la identidad F(x) = x, de modo que el estado de activación de la neurona se considera como la propia salida.

    yi(t) = Fi(ai(t)) = ai(t)

     

    CLASIFICACION DE REDES NEURONALES

    La clasificación es por el tipo de conexión y el tipo de aprendizaje

    Tipo de conexión

    Representa la arquitectura, estructura o patrón de conexiones de una red neuronal, que son tres:

    1)   Redes Monocapa, los más conocidos son el perceptron, Adaline
    2)   Redes Multicapa, Perceptron multicapa
    3)   Redes Recurrentes red de Hopfield

    Tipo de aprendizaje

    Según J Hilera, el aprendizaje es el proceso por el cual una red neuronal modifica sus pesos en respuesta a una información de entrada. Los cambios que se producen durante el proceso de aprendizaje se reducen a la destrucción, modificación y creación de conexiones entre las neuronas. En los sistemas biológicos existe una continua creación y destrucción de conexiones. En los modelos de redes neuronales artificiales, la creación de una nueva conexión implica que el peso de la misma pasa a tener un valor distinto de cero. La figura 3 muestra la clasificación

     

    ANALISIS DEL PERCEPTRON EN LA LOGICA BOOLEANA

    Linealmente separable

    Se utilizan los operadores OR, AND, XOR.

    Función de Propagación: Neto =

    Desarrollando para dos valores de entrada:

    Despejando x2, se tiene una ecuación de una recta que pasa por e! origen.

    La figura 4, muestra la representación de los valores lógicos OR. AND y XOR y la agrupación de valores de unos (1) y ceros (0): El OR y el AND (con el Umbral) son linealmente separables, pero el XOR es imposible.

    Y la función de activación cambia a:

    El perceptrón es la única red neuronal que tiene un teorema de convergencia que indica, si el problema es linealmente separable, el perceptron siempre encuentra la solución, pero no se sabe el tiempo que tarda, tampoco se sabe si es optimo la solución.

     

    PERCEPTRON MULTICAPA

    El perceptron multicapa o multinivel, es un perceptron simple, pero, añadidos con capas ocultas o capas intermedias. Esta arquitectura, realiza el aprendizaje o entrenamiento mediante el algoritmo de retro propagación de errores, que se denomina red de retropropagación (back propagation). El perceptron multicapa es una red de tipo recorrido hacia adelante (feed forward).

    Una de las alternativas de solución, cuando no es linealmente separable es incrementar una capa o más. Es decir entrenar los nodos de las capas ocultas pertenecientes a arquitectura multicapa.

    Pasos para la creación de una Red Neuronal

    En este caso aplicaremos el entrenamiento para la red perceptron multicapa, dividiremos su aplicación en las capa de entrada, capas ocultas y capa de salida.

    a)   Crear la red neuronal
    Determinar número de entradas o patrones de entrada Determinar las Capas Ocultas Determinar la salida o patrones de salida.

    b)    Propagar
    Capa de entradas

    Función sigmoidal

    Capa Oculta

    Capade salida

    c) Calculo de errores

    I. Error Cuadrado o error global

    II. Error Salida

    III. Error Oculto

    d) Modificación de pesos W

    Modificar pesos, capa de entrada we(j,i)
    Modificar pesos de capa oculta wo(j,i)
    Modificar pesos de capa de salida ws(j,i)

    Construcción y diseño del Perceptron de Multicapa o Multinivel

    Para el aprendizaje es fundamental el cálculo de la variación de los pesos, donde estos valores tienen que ser los óptimos. esta variación se mide por la derivada parcial del error global respecto a los pesos.

    Después de realizar la derivada y los cálculos se tiene:

    A esta ecuación se denomina regla de aprendizaje

    Para la creación de la red se muestra de manera grafica y almacenamiento tipo matricial de las entradas, salidas deseadas y los pesos.

    a) Crear la red neuronal

    Número de neuronas de entrada i=1,2,3,... ne
    Es el de vector de entrada x [ne]
    Número de neuronas ocultas por cada capa oculta j = 1.2,...no
    Número de capas ocultas k = 1, 2, 3,...co
    Número de Neuronas salida m=1,2,3....ns
    Es el vector de salida deseada d[ns]

    Asignación de Pesos

    La asignación de pesos es por partes (para la capa de entrada, oculta y salida) a través de una generación de números aleatorios en el rango de -1 a 1, -1 <= wij <= 1.

    La asignación de pesos es por partes (para la capa de entrada, oculta y salida) a través de una generación de números aleatorios en el rango de -1 a 1, -1≤ wij ≤1, como se muestra en la figura 5. Estos valores se cargan a la matriz de entrada, oculta y salida pesosE[ne][no], pesosO[(co-1) x no][no] y pesosS[no][ns]

    b) Propagar

    Propagación de las entradas: Se toma en cuenta las neuronas de entrada del vector x y la matriz de pesosE

    Para propagar la capa de entrada, se realiza los siguientes cálculos y se almacena el valor en los primeros nodos de la capa oculta como se muestra en la figura 6.

    y se aplica la función sigmoidal

    Propagación de las capas ocultas, se toma en cuenta los niveles Nivel 2, Nivel 3, etc. como se ve en la figura 5, y los cálculos son los siguientes

    Para propagar la capa de salida, se realiza con la última capa de la capa oculta (ver fig. 6), y los cálculos son los siguientes:

    c) Calculo de errores

    Error Cuadrado o error global

    Para efectos de programación cambiamos los subíndices y7 a y1, y8 a y2, y9 a y3, según muestra la figura 7.

    Error de salida

    Error en capa Oculta

    Continuamos el retroceso en las capas ocultas

    d) Modificación de pesos W

    Modifica Pesos de Entrada

    Modificar pesos de capa oculta

    Modificar pesos de capa de Salida

    Ver figura 8. Se repite el algoritmo hasta encontrar los mejores pesos para el entrenamiento o aprendizaje de la red neuronal artificial

     

    MODELOS DE LETRAS y DIGITOS

    Una letra es un signo grafico de un sistema de escritura, la cual sirve para la comunicación, en este caso para el estudio nos basamos en las 27 letras del alfabeto español y los dígitos del 0 al 9. Las formas de representación son infinitas a parte de las minúsculas y mayúsculas.

    En los procesadores de textos actualmente ya tienen clasificados por tipo de letra y tamaño, y tienen sus respectivas funcionalidades como búsquedas, sorteos, etc.

    Pero uno de tos problemas que existe aun es en la identificación si la letra es de tipo grafico, aunque fuera de tipo imprenta, y es más complejo si es manuscrito. Actualmente existen impresoras que reconocen las letras con cierto grado de error, pero el "como se hace" es desconocido o no es de código abierto.

    Análisis de las letras tipo grafico
    Arial 8

    A B C D E F G H I J K L M N Ñ O P Q R S T U V W : Arial 8 con zoom 800

    Si analizamos de manera un poco detallada, se ven manchas y colores diferentes en degrade del color negro, esto complica, si se lleva a cabo el mapeo con bits, se tiene dos alternativas

    a) Tomar en cuenta el degrade mas, para colocar en una matriz booleana

    b) Solamente tomar en cuenta la parte más negrita. Para colocar en una matriz booleana

    Ejemplo de a)

    Ejemplo de b)

    Con una vista normal sin zoom se tiene el original y las dos modificaciones

    A B C D E F G H I J K L M N Ñ O
    A B C D E F G H I J K L M N Ñ O
    A B C D E F G H I J K L M N Ñ O

    Diseño de letras con mapa de bits

    Las tetras y números que se está planteando serán los patrones de salida en la red neuronal artificial (27 y 10).

     

    RESULTADOS

    Software desarrollado

    Para ver los resultados de la red neuronal artificial en su aprendizaje, es necesario contar con un software, en este caso se ha desarrollado el software para el perceptron simple y la red neuronal artificial Backpropagation. La ventaja de desarrollar es conocer de manera detalla la construcción de un red neuronal artificial, además se tiene el control para los reportes y análisis que uno pueda realizar. El software se desarrollo en PHP y para guardar el aprendizaje se utilizo MySql. Se muestra en las figura 9 la pantalla y parámetros de entrada.

    Resultados de corridas en el aprendizaje mediante el perceptron multicapa

    Para el tiempo de ejecución en cualquier programa es importante conocer e! tamaño de los datos, las iteraciones, etc., en ese entendido, la investigación fue realizada en el tipo de letra Arial 8, que significa que en su mayoría las letras y números tienen 8 filas, pero las columnas varían de acuerdo a la forma de la letra y número (ver tabla 1 y 2), los resultados son bajo las siguientes características, neuronas de entrada y salida son determinados por el tipo de letra arial 8, numero de capas ocultas 2, numero de neuronas ocultas 8 (por los 8 bits de filas), alfa 0.25, y máximo error permitido 0.10.

    Según las tablas, se requiere aproximadamente 2804 iteraciones y 853 iteraciones para aprender las letras y números respectivamente, es decir, se necesitan esta cantidad de iteraciones para encontrar los pesos respectivos para cada capa, talque estos sean los mejores valores.

    Las tablas Tabla 3 y Tabla 4 (ordenado por tamaño) también muestran que a mayor tamaño de letras y números incrementa las iteraciones.

    Experimento de reconocimiento de letras

    La tabla 5 muestra el experimento de comparación de aprendizaje o entrenamiento con la red neuronal backpropagation, bajo las características similares a la tabla 1, pero, con la variación que el máximo error permitido es 0.05.

    En esta tabla se muestra particularmente, la comparación de caracteres similares, la letra O es parecida a la letra Q, y la letra Q es parecida a la letra O (según el mapa de bits de estas letras la variación es solo en 1 bit). La tetra B no es similar en aproximadamente en un 6% o 7%, pero, puede, reacomodarse en un promedio de 20 iteraciones. Para e! análisis se debe tomar en cuenta solamente la primera iteración.

     

    DISCUSION

    En la red neuronal de Perceptron básico, y llevado al experimento mediante la ejecución del software construido para tal efecto, se muestra una convergencia muy rápida para encontrar los pesos máximos para el aprendizaje de los Patrones del OR, para los patrones del AND, no tiene solución, pero cuando se aumenta el umbral, que permite la translación, tiene la solución respectiva para el aprendizaje, mientras para el XOR, definitivamente no tiene solución. Por lo tanto, se puede indicar lo que mostraba de manera teórica, también se cumple de manera experimental, donde el Perceptron básico resuelve problemas netamente que sean linealmente separables. En la red neurona! multicapa o Backpropagation permite la solución a ios anteriores problemas, ya que permite introducir las capas ocultas, pero de acuerdo a la cantidad de las neuronas de entrada, neuronas ocultas y numero de neuronas de salida puede tardar la ejecución, en el experimento, con el máximo error permitido, de 0.10 se requieren 2804 iteraciones para las letras y 853 iteraciones para los números, pero si se quiere el máximo error permitido de 0.05, se necesita mayor tiempo de ejecución y el numero de iteraciones aproximadamente se incrementa en un 75 %, es decir con este error se requiere 4907 iteraciones para aprender todas las letras y 1492 para entrenar a los números.

     

    CONCLUSIONES

    La explicación teórica de una red neuronal artificial, es muy importante, pero, llegar a comprender, el entrenamiento o el aprendizaje de esta red, es fundamental, para tal efecto se desarrollo el programa perceptron simple en PHP., donde permitió el entrenamiento de los valores de la lógica booleana OR, AND y XOR, coincidiendo al 100% con la parte teórica de que la resolución en el perceptron simple es en aquellos valores que pueden ser linealmente separables.

    Para el diseño de la red neuronal artificial que identifique las letras y los números, se considero el tipo de letra arial 8, el número de las neuronas de entrada y las neuronas de salida se determina por el número de filas y columnas que pueda tener cada letra, en este caso el numero de filas es 8 (por el tamaño arial 8). Varía desde la letra I que tiene 8 bits (8x1) hasta W que es la letra más grande en términos de bits 8 x 10 = 80 neuronas, y el 48% es de tamaño 8 x 5 = 40 y el resto está de 48 a 64 bits.

    En los números el más pequeño es el numero 1 de 8 x 3 = 24 bits, el más grande e! numero 4 de 8 x 5 = 40 bits, y el resto de los números es de 8 x 4 = 32 bits o neuronas.

    En el diseño de capas ocultas, se debía resolver con una sola capa, o aplicar la regla de la pirámide geométrica (numero de neuronas de entrada * numero de neuronas de salida y a este resultado sacar la raíz cuadrada), porque si es mayor a 2, el entrenamiento se hace más lento y la capa adicional a través de la cual se propaga el error hace el gradiente más inestable, y el numero de mínimos locales se incrementa.
    Para el entrenamiento se utilizo dos capas ocultas, cada capa oculta tiene 8 neuronas por el tamaño de la tetra (numero de filas), donde la red mostro una estabilidad alrededor del promedio de iteraciones o entrenamientos.

     

    PROYECCCIONES

    Las redes neuronales artificiales siguen en vigencia su estudio, y como base es la red neuronal backpropagation, si bien tiene avances el reconocimiento óptico de caracteres OCR, que es la conversión escaneada de texto mecanografiado, manuscrito en un texto codificado. Aun plantea problemas al escanear y reconocer estos caracteres, más aun si es manuscrito, por la misma complejidad y la velocidad de ejecución que pueda tener la red neuronal artificial. Es importante seguir profundizando tanto en la parte teórica que aporta la convergencia para tener pesos aceptables, y en la parte practica o programación experimentar para reducir las iteraciones y tener un aprendizaje o entrenamiento más rápido.

     

    BIBLIOGRAFIA

    Constela G.. Aguilera S. (2010). Aplicación De Redes Neuronales En El Reconocimiento De Caracteres Ocr De Software Libré, Tecnologia Informática-Universidad De Belgrano. Buenos Aires: Workshop De Investigadores En Ciencias De La Computación.        [ Links ]

    Hilera J., Martinez V. (2002). Redes Neurona/es Artificiales, Fundamentos, Modelos Y Aplicaciones (Vol. 2da Ed). España: Sddison Wesley Iberoamiercana S.A        [ Links ]

    Howard, A. (1986). Calculo Y Geometria Analitica (Vol. 2 ). Mexico: Limusa S.A.        [ Links ]

    Martin B., Sanz A. . (2002). Mexico D.F: Alfaomega Ra-Ma.        [ Links ]

    N. J., N. (2001). Inteligencia Artificial: Una Nueva Síntesis. España; Mcgraw Hill Interamericana.

    Prawda, J. (1981) Metodos Y Modelos De Investigacion De Operaciones (Vol 1). Mexico D.F; Limusa S.A.        [ Links ]

    Russell S., Norving P. (1996). Inteligencia Artificial; Un Enfoque Moderno. Mexico: Prentice Hall Hispanoamericana S.A.        [ Links ]