Deep Learning: teoría y aplicaciones - Jesús Alfonso López Sotelo - E-Book

Deep Learning: teoría y aplicaciones E-Book

Jesús Alfonso López Sotelo

0,0
13,99 €

-100%
Sammeln Sie Punkte in unserem Gutscheinprogramm und kaufen Sie E-Books und Hörbücher mit bis zu 100% Rabatt.
Mehr erfahren.
Beschreibung

Deep Learning es, en gran medida, el causante de la revolución actual en el campo de la inteligencia artificial. Podría parecer una tecnología nueva, sin embargo, es esencialmente la evolución de las redes neuronales artificiales, que tienen más de 60 años en el área de la inteligencia artificial. Si desea conocer el desarrollo de Deep Learning desde su origen, este es el libro indicado. Deep Learning, teorías y aplicaciones se ha concebido para dar una introducción general, incluyendo un barrido histórico por los progresos que dieron origen a esta tecnología. Parte de las redes neuronales clásicas como las monocapa y sigue por las superficiales hasta llegar a las profundas, como las redes neuronales convolucionales, ampliamente usadas en aplicaciones de procesamiento de imágenes. Además, este libro hace un balance entre el contenido teórico y práctico. La parte conceptual le será útil para aproximarse a los conceptos teóricos básicos más relevantes. La parte experimental le servirá como apoyo a una aproximación práctica a esta tecnología, y lo logrará por medio de ejemplos resueltos sobre problemas reales en Deep Learning. Asimismo, para el componente práctico, se utilizan herramientas de amplio uso en la comunidad académica como el sistema de prototipado electrónico rápido Arduino y el software de simulación Matlab, por lo que gracias a esta lectura estará al día de las últimas tendencias tecnológicas.

Sie lesen das E-Book in den Legimi-Apps auf:

Android
iOS
von Legimi
zertifizierten E-Readern

Seitenzahl: 253

Bewertungen
0,0
0
0
0
0
0
Mehr Informationen
Mehr Informationen
Legimi prüft nicht, ob Rezensionen von Nutzern stammen, die den betreffenden Titel tatsächlich gekauft oder gelesen/gehört haben. Wir entfernen aber gefälschte Rezensionen.



 

 

Esta obra ha recibido una ayuda a la edición del Ministerio de Cultura y Deporte del Gobierno de España, por el Plan de Recuperación, Transformación y Resiliencia, Financiado por la Unión Europea (NextGenerationEU)

Deep Learning: teoría y aplicacionesJesús Alfonso López Sotelo

Derechos reservados © Alpha Editorial S.A.Primera edición: 2021ISBN: 978-958-778-686-6

Edición: Sandra ArdilaPortada: Ana Paula Santander

Primera edición: MARCOMBO, S.L. 2023

© 2023 MARCOMBO, S.L.www.marcombo.com

Cualquier forma de reproducción, distribución, comunicación pública o transformación de esta obra sólo puede ser realizada con la autorización de sus titulares, salvo excepción prevista por la ley. Diríjase a CEDRO (Centro Español de Derechos Reprográficos, www.cedro.org) si necesita fotocopiar o escanear algún fragmento de esta obra

ISBN del libro en papel: 978-84-267-3583-6ISBN del libro electrónico: 978-84-267-3607-9Produción del ePub: booqlab

Jesús Alfonso López Sotelo

Ingeniero electricista, magíster en Automática y doctor en Ingeniería.

Tiene más de veinte años de experiencia en docencia y en desarrollo de proyectos relacionados con Inteligencia Artificial. Sus áreas de interés son las redes neuronales artificiales y el aprendizaje profundo (Deep Learning), los sistemas difusos, la computación evolutiva, la enseñanza de la inteligenacia artificial y el impacto que esta tecnología pueda tener en nuestra sociedad.

Es investigador senior del Sistema nacional de ciencia tecnología e innovación en Colombia de Colciencias, es miembro profesional del IEEE (The Institute of Electrical and Electronics Engineers, Inc.) y pertenece a la Sociedad de Inteligencia Computacional de dicho instituto. Actualmente está vinculado a la Universidad Autónoma de Occidente en Cali y pertenece al Grupo de Investigación en Energías, GIEN. Ha publicado diversos artículos, capítulos de libro y libros en las temáticas de redes neuronales artificiales y otras técnicas de inteligencia artificial

CONTENIDO

Lista de figuras

Lista de tablas

Lista de variables

Introducción

1. Conceptos sobre redes neuronales artificiales y aprendizaje profundo

Introducción

Objetivos del capítulo

Inteligencia artificial, redes neuronales artificiales y Deep Learning

Breve reseña histórica

La neurona biológica

La neurona artificial

Procesamiento matemático en la neurona artificial

Red neuronal artificial

Arquitecturas de redes neuronales artificiales

De acuerdo con la cantidad de capas

Redes multicapa superficial o de una capa oculta

Redes multicapa profundas

De acuerdo con el flujo de la información

Redes Feedforward

Redes recurrentes

El aprendizaje en las redes neuronales artificiales

Aprendizaje supervisado

Aprendizaje no supervisado

Aprendizaje por refuerzo

Ejemplo de procesamiento de la información en una red neuronal

Aplicaciones

Visión por computador

Procesamiento de voz

Reconocimiento de sonido

Procesamiento de texto

Otras aplicaciones

2. Los principios del aprendizaje profundo: redes monocapa

Introducción

Red Neuronal Perceptron

Arquitectura y funcionamiento

Algoritmo de aprendizaje

Red Neuronal Adaline (ADAptative LINear Element)

Arquitectura

Algoritmo de aprendizaje

Limitaciones del Perceptron

Proyectos de aplicación

Solución de la función lógica AND con un Perceptron

Reconocimiento de caracteres usando el Perceptron

Filtro adaptativo usando una red Adaline

Filtrado de señales de voz

Filtro adaptativo usando una red Adaline implementada en Arduino

Ejercicios propuestos

3. Superando las dificultades con la propagación inversa en las redes

Introducción

Arquitectura general de un Perceptron multicapa superficial

Entrenamiento de un MLP superficial

Nomenclatura para las redes superficiales

Algoritmo de entrenamiento

Gradiente descendente estocástico y gradiente descendente

Gradiente descendente estocástico (GDE)

Procesamiento de datos hacia adelante “feedforward”

Actualización de pesos para la capa de salida

Actualización de los bias para la capa de salida

Actualización de pesos para la capa oculta

Backpropagation

Actualización de los bias para la capa oculta

Variaciones del gradiente descendente

Algoritmo gradiente descendente con alfa variable

Algoritmo gradiente descendente con momentum clásico

Algoritmos de segundo orden para redes neuronales MLP

Método de Newton aplicado a redes neuronales

Levenberg Marquardt

Gradiente conjugado

Consideraciones de diseño

Conjuntos de aprendizaje y de validación

Dimensión de la red neuronal

Funciones de activación

Pre y posprocesamiento de datos

Regularización

Regularización por parada temprana

Regularización por limitación de la magnitud de los pesos L2

Proyectos de aplicación

Solución del problema de la función XOR con Matlab

Aprendizaje de una función seno con Matlab

Aprendizaje de una superficie (función de dos variables) Silla de Montar con Matlab

Identificación de sistemas usando redes neuronales MLP

Diseño del experimento y muestreo de datos

Modelo a usar y estimación de parámetros (Entrenamiento de la red)

Validación del modelo obtenido con la RNA

Aplicación a la clasificación de patrones (el problema del IRIS)

Reconocimiento de caracteres mano escritos (conjunto de datos MNIST) con una red superficial

Generador de ondas senoidales implementado con una red neuronal MLP en Arduino

Emulación de un sistema dinámico implementado con una red neuronal MLP en Arduino

Ejercicios propuestos

4. Aprendizaje profundo (Deep Learning) o las redes de muchas capas

Introducción

Problemas para entrenar redes neuronales profundas

Desvanecimiento del gradiente

Se requiere muchos datos

Se requiere una alta capacidad de cómputo

¿Cómo solucionar el problema del desvanecimiento del gradiente?

Cambio en funciones de activación

Cambio en la función de pérdida o de costo

Reconocimiento de patrones convencional vs Deep Learning

Extracción de características automático en una imagen

Algoritmos de entrenamiento para redes profundas

Algoritmo gradiente descendente con momentum Nesterov

Algoritmo gradiente descendente tipo AdaGrad

Algoritmo gradiente descendente tipo RMSProp

Algoritmo gradiente descendente tipo AdaDelta

Algoritmo gradiente descendente tipo Adam

Arquitecturas de Deep Learning

Autocodificadores apilados

Redes neuronales convolucionales (Convolutional Neural Networks, CNN)

Redes recurrentes tipo Long Short Term Memory (LSTM)

Redes generativas profundas

Autocodificadores Variacionales (VAE)

Redes Generadoras Adversarias (GAN)

Aprendizaje por Refuerzo Profundo (Deep Reinforcement Learning, DRL)

Proyectos de aplicación

Aplicación a la clasificación del problema del Iris con una red profunda

Reconocimiento de caracteres mano escritos (MNIST data set) con una red profunda

Disminución de la dimensionalidad con un autocodificador para el data set MNIST

Reconocimiento de caracteres mano escritos (MNIST) con un autocodificador disperso

Ejercicios propuestos

5. Redes convolucionales

Introducción

Breve introducción al procesamiento de imágenes

¿Cómo ve un computador?

Inspiración biológica de una CNN

Funcionamiento de una red convolucional

Convolución

Zero-Padding

Convolución con imágenes a color

Función de activación

Pooling

Capa clasificadora

Otros procesos comunes en CNN

Arquitectura general de una CNN

Dimensionamiento de una red neuronal convolucional

Algunas arquitecturas de redes convolucionales representativas

LetNet–5

AlexNet

VGG16 net

Resnet

Inception

De Alexnet a Inception

Proyectos de aplicación

Uso de una red preentrenada en Matlab

Entrenamiento de una CNN para reconocimiento de caracteres mano escritos del data set MNIST

Entrenamiento de una CNN para reconocimiento de imágenes Data set CIFAR–10

Transfer Learning con Matlab

Deep Dream

Ejercicios propuestos

Bibliografía

LISTA DE FIGURAS

LISTA DE TABLAS

Tabla 2.1

Pasos para el entrenamiento de una red Perceptron.

Tabla 2.2

Patrones de entrenamiento.

Tabla 2.3

Pasos para el entrenamiento de una red ADALINE.

Tabla 2.4

Función Lógica XOR.

Tabla 2.5

Función Lógica AND.

Tabla 2.6

Patrones correspondientes a los caracteres decimales.

Tabla 2.7

Codificación de los patrones de entrenamiento para el reconocimiento de caracteres decimales en MATLAB.

Tabla 2.8

Validación de la red usando como entrada el número siete.

Tabla 2.9

Validación de la red usando como entrada el número nueve.

Tabla 2.10

Patrones a clasificar.

Tabla 2.11

Patrones a clasificar.

Tabla 3.1

Derivadas de las funciones de activación más representativas.

Tabla 3.2

Pasos del algoritmo GDE para entrenar una red MLP superficial.

Tabla 3.3

Organización de los patrones de entrenamiento.

Tabla 5.1

Comparación arquitecturas de redes convolucionales.

LISTA DE VARIABLES