En esta formación se cubren temas como la inicialización de Redes Neuronales, técnicas de regularización (como L1, L2, Dropout), Batch Normalization, gradient checking. También se recorren algoritmos de optimización como mini-batch Gradient Descent, Momentum, RMSprop y Adam así como buenas prácticas en detección de varianza / bias y creación de dataset de entrenamiento, validación y test.
Link del certificado:
https://coursera.org/share/d2e564a57a3a4df9ff9bbb00af661546