Différences
Ci-dessous, les différences entre deux révisions de la page.
| Les deux révisions précédentes Révision précédente Prochaine révision | Révision précédente | ||
|
equipes:rcln:ancien_wiki:mexique:week11 [2020/08/25 17:49] garciaflores [Preguntas y respuestas] |
equipes:rcln:ancien_wiki:mexique:week11 [2020/11/23 18:42] (Version actuelle) garciaflores ↷ Page déplacée de equipes:rcln:mexique:week11 à equipes:rcln:ancien_wiki:mexique:week11 |
||
|---|---|---|---|
| Ligne 57: | Ligne 57: | ||
| > "Si acumulas las capas de sigmoides en tu red. ésta no va a aprender de manera eficiente [...] en este caso debes poner mucha atención a la normalización" | > "Si acumulas las capas de sigmoides en tu red. ésta no va a aprender de manera eficiente [...] en este caso debes poner mucha atención a la normalización" | ||
| + | |||
| > "Para redes muy profundas, las funciones no lineales quebradas [como el rectificador] son más convenientes" | > "Para redes muy profundas, las funciones no lineales quebradas [como el rectificador] son más convenientes" | ||
| Ligne 84: | Ligne 85: | ||
| - ¿Qué es el [polinomio de Chebyshev](https:// | - ¿Qué es el [polinomio de Chebyshev](https:// | ||
| - | > " | ||
| - | | + | > " |
| - | - ¿Qué son los *spring parameters*? | + | |
| + | |||
| + | - En un marco de [aprendizaje profundo geométrico](https:// | ||
| + | |||
| + | - ¿Qué son los *spring parameters*? | ||
| + | |||
| - [Funciones monótonas](http:// | - [Funciones monótonas](http:// | ||
| - Momento lexicográfico: | - Momento lexicográfico: | ||
| + | |||
| + | |||
| + | |||
| {{: | {{: | ||
| + | |||
| {{: | {{: | ||
| + | - ¿[Es la normalización por lotes incompatible con la función sigmoide](https:// | ||
| + | |||
| + | - [Softmax y temperatura](https:// | ||
| + | |||
| + | |||
| + | |||
| + | ## II. Funciones de pérdida | ||
| + | |||
| + | {{: | ||
| + | |||
| + | Fuente[[https:// | ||
| + | |||
| + | ### Función de pérdida L1 | ||
| + | |||
| + | - Valor absoluto de la diferencia entre el valor obtenido y el valor objetivo (o deseado) | ||
| + | - [No es derivable en x=0](https:// | ||
| + | |||
| + | |||
| + | ### Función de verosimilitud negativa | ||
| + | |||
| + | - [Paráfrasis verbal de la función](https:// | ||
| + | |||
| + | - Balanceando juegos de datos desbalanceados con Yann: | ||
| + | |||
| + | {{: | ||
| + | |||
| + | ### Pérdida por entropía cruzada | ||
| + | |||
| + | - Repaso de la [función de entropía cruzada](https:// | ||
| + | - Sobre [la divergencia Kullback-Leibler](https:// | ||
| + | |||
| + | ### Perdida binaria por entropía cruzada | ||
| + | |||
| + | {{: | ||
| + | |||
| + | {{: | ||
| + | |||
| + | ### Pérdida por divergencia KL | ||
| + | |||
| + | {{: | ||
| + | |||
| + | ### Pérdida por inmersión de coseno (*CosineEmbeddingLoss*) | ||
| + | |||
| + | - Repaso de la [similaridad por coseno](https:// | ||
| + | |||
| + | ### Pérdida por clasificación temporal conexionista (CTC) | ||
| + | |||
| + | {{: | ||
| + | |||
| + | {{: | ||
| + | |||
| + | {{: | ||
| + | |||
| + | {{: | ||
| + | |||
| + | **Vínculo hacia el [artículo](https:// | ||