13,99 €
Deep Learning es, en gran medida, el causante de la revolución actual en el campo de la inteligencia artificial. Podría parecer una tecnología nueva, sin embargo, es esencialmente la evolución de las redes neuronales artificiales, que tienen más de 60 años en el área de la inteligencia artificial. Si desea conocer el desarrollo de Deep Learning desde su origen, este es el libro indicado. Deep Learning, teorías y aplicaciones se ha concebido para dar una introducción general, incluyendo un barrido histórico por los progresos que dieron origen a esta tecnología. Parte de las redes neuronales clásicas como las monocapa y sigue por las superficiales hasta llegar a las profundas, como las redes neuronales convolucionales, ampliamente usadas en aplicaciones de procesamiento de imágenes. Además, este libro hace un balance entre el contenido teórico y práctico. La parte conceptual le será útil para aproximarse a los conceptos teóricos básicos más relevantes. La parte experimental le servirá como apoyo a una aproximación práctica a esta tecnología, y lo logrará por medio de ejemplos resueltos sobre problemas reales en Deep Learning. Asimismo, para el componente práctico, se utilizan herramientas de amplio uso en la comunidad académica como el sistema de prototipado electrónico rápido Arduino y el software de simulación Matlab, por lo que gracias a esta lectura estará al día de las últimas tendencias tecnológicas.
Sie lesen das E-Book in den Legimi-Apps auf:
Seitenzahl: 253
Esta obra ha recibido una ayuda a la edición del Ministerio de Cultura y Deporte del Gobierno de España, por el Plan de Recuperación, Transformación y Resiliencia, Financiado por la Unión Europea (NextGenerationEU)
Deep Learning: teoría y aplicacionesJesús Alfonso López Sotelo
Derechos reservados © Alpha Editorial S.A.Primera edición: 2021ISBN: 978-958-778-686-6
Edición: Sandra ArdilaPortada: Ana Paula Santander
Primera edición: MARCOMBO, S.L. 2023
© 2023 MARCOMBO, S.L.www.marcombo.com
Cualquier forma de reproducción, distribución, comunicación pública o transformación de esta obra sólo puede ser realizada con la autorización de sus titulares, salvo excepción prevista por la ley. Diríjase a CEDRO (Centro Español de Derechos Reprográficos, www.cedro.org) si necesita fotocopiar o escanear algún fragmento de esta obra
ISBN del libro en papel: 978-84-267-3583-6ISBN del libro electrónico: 978-84-267-3607-9Produción del ePub: booqlab
Ingeniero electricista, magíster en Automática y doctor en Ingeniería.
Tiene más de veinte años de experiencia en docencia y en desarrollo de proyectos relacionados con Inteligencia Artificial. Sus áreas de interés son las redes neuronales artificiales y el aprendizaje profundo (Deep Learning), los sistemas difusos, la computación evolutiva, la enseñanza de la inteligenacia artificial y el impacto que esta tecnología pueda tener en nuestra sociedad.
Es investigador senior del Sistema nacional de ciencia tecnología e innovación en Colombia de Colciencias, es miembro profesional del IEEE (The Institute of Electrical and Electronics Engineers, Inc.) y pertenece a la Sociedad de Inteligencia Computacional de dicho instituto. Actualmente está vinculado a la Universidad Autónoma de Occidente en Cali y pertenece al Grupo de Investigación en Energías, GIEN. Ha publicado diversos artículos, capítulos de libro y libros en las temáticas de redes neuronales artificiales y otras técnicas de inteligencia artificial
Lista de figuras
Lista de tablas
Lista de variables
Introducción
1. Conceptos sobre redes neuronales artificiales y aprendizaje profundo
Introducción
Objetivos del capítulo
Inteligencia artificial, redes neuronales artificiales y Deep Learning
Breve reseña histórica
La neurona biológica
La neurona artificial
Procesamiento matemático en la neurona artificial
Red neuronal artificial
Arquitecturas de redes neuronales artificiales
De acuerdo con la cantidad de capas
Redes multicapa superficial o de una capa oculta
Redes multicapa profundas
De acuerdo con el flujo de la información
Redes Feedforward
Redes recurrentes
El aprendizaje en las redes neuronales artificiales
Aprendizaje supervisado
Aprendizaje no supervisado
Aprendizaje por refuerzo
Ejemplo de procesamiento de la información en una red neuronal
Aplicaciones
Visión por computador
Procesamiento de voz
Reconocimiento de sonido
Procesamiento de texto
Otras aplicaciones
2. Los principios del aprendizaje profundo: redes monocapa
Introducción
Red Neuronal Perceptron
Arquitectura y funcionamiento
Algoritmo de aprendizaje
Red Neuronal Adaline (ADAptative LINear Element)
Arquitectura
Algoritmo de aprendizaje
Limitaciones del Perceptron
Proyectos de aplicación
Solución de la función lógica AND con un Perceptron
Reconocimiento de caracteres usando el Perceptron
Filtro adaptativo usando una red Adaline
Filtrado de señales de voz
Filtro adaptativo usando una red Adaline implementada en Arduino
Ejercicios propuestos
3. Superando las dificultades con la propagación inversa en las redes
Introducción
Arquitectura general de un Perceptron multicapa superficial
Entrenamiento de un MLP superficial
Nomenclatura para las redes superficiales
Algoritmo de entrenamiento
Gradiente descendente estocástico y gradiente descendente
Gradiente descendente estocástico (GDE)
Procesamiento de datos hacia adelante “feedforward”
Actualización de pesos para la capa de salida
Actualización de los bias para la capa de salida
Actualización de pesos para la capa oculta
Backpropagation
Actualización de los bias para la capa oculta
Variaciones del gradiente descendente
Algoritmo gradiente descendente con alfa variable
Algoritmo gradiente descendente con momentum clásico
Algoritmos de segundo orden para redes neuronales MLP
Método de Newton aplicado a redes neuronales
Levenberg Marquardt
Gradiente conjugado
Consideraciones de diseño
Conjuntos de aprendizaje y de validación
Dimensión de la red neuronal
Funciones de activación
Pre y posprocesamiento de datos
Regularización
Regularización por parada temprana
Regularización por limitación de la magnitud de los pesos L2
Proyectos de aplicación
Solución del problema de la función XOR con Matlab
Aprendizaje de una función seno con Matlab
Aprendizaje de una superficie (función de dos variables) Silla de Montar con Matlab
Identificación de sistemas usando redes neuronales MLP
Diseño del experimento y muestreo de datos
Modelo a usar y estimación de parámetros (Entrenamiento de la red)
Validación del modelo obtenido con la RNA
Aplicación a la clasificación de patrones (el problema del IRIS)
Reconocimiento de caracteres mano escritos (conjunto de datos MNIST) con una red superficial
Generador de ondas senoidales implementado con una red neuronal MLP en Arduino
Emulación de un sistema dinámico implementado con una red neuronal MLP en Arduino
Ejercicios propuestos
4. Aprendizaje profundo (Deep Learning) o las redes de muchas capas
Introducción
Problemas para entrenar redes neuronales profundas
Desvanecimiento del gradiente
Se requiere muchos datos
Se requiere una alta capacidad de cómputo
¿Cómo solucionar el problema del desvanecimiento del gradiente?
Cambio en funciones de activación
Cambio en la función de pérdida o de costo
Reconocimiento de patrones convencional vs Deep Learning
Extracción de características automático en una imagen
Algoritmos de entrenamiento para redes profundas
Algoritmo gradiente descendente con momentum Nesterov
Algoritmo gradiente descendente tipo AdaGrad
Algoritmo gradiente descendente tipo RMSProp
Algoritmo gradiente descendente tipo AdaDelta
Algoritmo gradiente descendente tipo Adam
Arquitecturas de Deep Learning
Autocodificadores apilados
Redes neuronales convolucionales (Convolutional Neural Networks, CNN)
Redes recurrentes tipo Long Short Term Memory (LSTM)
Redes generativas profundas
Autocodificadores Variacionales (VAE)
Redes Generadoras Adversarias (GAN)
Aprendizaje por Refuerzo Profundo (Deep Reinforcement Learning, DRL)
Proyectos de aplicación
Aplicación a la clasificación del problema del Iris con una red profunda
Reconocimiento de caracteres mano escritos (MNIST data set) con una red profunda
Disminución de la dimensionalidad con un autocodificador para el data set MNIST
Reconocimiento de caracteres mano escritos (MNIST) con un autocodificador disperso
Ejercicios propuestos
5. Redes convolucionales
Introducción
Breve introducción al procesamiento de imágenes
¿Cómo ve un computador?
Inspiración biológica de una CNN
Funcionamiento de una red convolucional
Convolución
Zero-Padding
Convolución con imágenes a color
Función de activación
Pooling
Capa clasificadora
Otros procesos comunes en CNN
Arquitectura general de una CNN
Dimensionamiento de una red neuronal convolucional
Algunas arquitecturas de redes convolucionales representativas
LetNet–5
AlexNet
VGG16 net
Resnet
Inception
De Alexnet a Inception
Proyectos de aplicación
Uso de una red preentrenada en Matlab
Entrenamiento de una CNN para reconocimiento de caracteres mano escritos del data set MNIST
Entrenamiento de una CNN para reconocimiento de imágenes Data set CIFAR–10
Transfer Learning con Matlab
Deep Dream
Ejercicios propuestos
Bibliografía
Tabla 2.1
Pasos para el entrenamiento de una red Perceptron.
Tabla 2.2
Patrones de entrenamiento.
Tabla 2.3
Pasos para el entrenamiento de una red ADALINE.
Tabla 2.4
Función Lógica XOR.
Tabla 2.5
Función Lógica AND.
Tabla 2.6
Patrones correspondientes a los caracteres decimales.
Tabla 2.7
Codificación de los patrones de entrenamiento para el reconocimiento de caracteres decimales en MATLAB.
Tabla 2.8
Validación de la red usando como entrada el número siete.
Tabla 2.9
Validación de la red usando como entrada el número nueve.
Tabla 2.10
Patrones a clasificar.
Tabla 2.11
Patrones a clasificar.
Tabla 3.1
Derivadas de las funciones de activación más representativas.
Tabla 3.2
Pasos del algoritmo GDE para entrenar una red MLP superficial.
Tabla 3.3
Organización de los patrones de entrenamiento.
Tabla 5.1
Comparación arquitecturas de redes convolucionales.