Capítulo 5: Redes Neuronales Artificiales
CNN, RNN y GAN: la arquitectura del cerebro digital
Desde la inspiración biológica del cerebro humano hasta las arquitecturas que revolucionaron la visión artificial y el procesamiento de secuencias, este capítulo recorre la historia y mecánica de las redes neuronales.
Las Redes Neuronales Convolucionales (CNN) imitan cómo el cerebro procesa imágenes: descomponen la información visual en piezas simples y construyen complejidad capa por capa. El punto de inflexión fue 2012, cuando AlexNet demostró que las CNNs profundas en GPUs podían superar ampliamente los métodos tradicionales.
Las Redes Recurrentes (RNN) retienen información a lo largo de secuencias, preservando la importancia del orden. Y las Redes Generativas Antagónicas (GANs) enfrentan dos redes en competencia para generar datos realistas.
Conceptos clave
Conceptos clave
- CNN (Redes Convolucionales): Especializadas en procesar imágenes usando operaciones de convolución y pooling.
- RNN (Redes Recurrentes): Diseñadas para datos secuenciales, mantienen un estado oculto que transporta contexto.
- GAN (Redes Generativas Antagónicas): Dos redes compiten entre sí para generar datos cada vez más realistas.
- AlexNet y 2012: El momento que transformó el deep learning de teoría académica a herramienta práctica.