Différences
Ci-dessous, les différences entre deux révisions de la page.
Les deux révisions précédentes Révision précédente Prochaine révision | Révision précédente | ||
equipes:rcln:ancien_wiki:mexique:week11 [2020/08/25 17:46] garciaflores |
equipes:rcln:ancien_wiki:mexique:week11 [2020/11/23 18:42] (Version actuelle) garciaflores ↷ Page déplacée de equipes:rcln:mexique:week11 à equipes:rcln:ancien_wiki:mexique:week11 |
||
---|---|---|---|
Ligne 57: | Ligne 57: | ||
> "Si acumulas las capas de sigmoides en tu red. ésta no va a aprender de manera eficiente [...] en este caso debes poner mucha atención a la normalización" | > "Si acumulas las capas de sigmoides en tu red. ésta no va a aprender de manera eficiente [...] en este caso debes poner mucha atención a la normalización" | ||
+ | |||
> "Para redes muy profundas, las funciones no lineales quebradas [como el rectificador] son más convenientes" | > "Para redes muy profundas, las funciones no lineales quebradas [como el rectificador] son más convenientes" | ||
Ligne 67: | Ligne 68: | ||
### Función de umbral | ### Función de umbral | ||
+ | |||
+ | - [Función de umbral en la primera neurona artificial](https:// | ||
> "No se puede propagar gradiente ahí: por culpa de esta función no se inventó la retropropagación en la década de 1960 o incluso 1970" | > "No se puede propagar gradiente ahí: por culpa de esta función no se inventó la retropropagación en la década de 1960 o incluso 1970" | ||
Ligne 82: | Ligne 85: | ||
- ¿Qué es el [polinomio de Chebyshev](https:// | - ¿Qué es el [polinomio de Chebyshev](https:// | ||
- | > " | ||
- | | + | > " |
- | - ¿Qué son los *spring parameters*? | + | |
+ | |||
+ | - En un marco de [aprendizaje profundo geométrico](https:// | ||
+ | |||
+ | - ¿Qué son los *spring parameters*? | ||
+ | |||
- [Funciones monótonas](http:// | - [Funciones monótonas](http:// | ||
- Momento lexicográfico: | - Momento lexicográfico: | ||
+ | |||
+ | |||
+ | {{: | ||
+ | |||
+ | {{: | ||
+ | |||
+ | - ¿[Es la normalización por lotes incompatible con la función sigmoide](https:// | ||
+ | |||
+ | - [Softmax y temperatura](https:// | ||
+ | |||
+ | |||
+ | |||
+ | ## II. Funciones de pérdida | ||
+ | |||
+ | {{: | ||
+ | |||
+ | Fuente[[https:// | ||
+ | |||
+ | ### Función de pérdida L1 | ||
+ | |||
+ | - Valor absoluto de la diferencia entre el valor obtenido y el valor objetivo (o deseado) | ||
+ | - [No es derivable en x=0](https:// | ||
+ | |||
+ | |||
+ | ### Función de verosimilitud negativa | ||
+ | |||
+ | - [Paráfrasis verbal de la función](https:// | ||
+ | |||
+ | - Balanceando juegos de datos desbalanceados con Yann: | ||
+ | |||
+ | {{: | ||
+ | |||
+ | ### Pérdida por entropía cruzada | ||
+ | |||
+ | - Repaso de la [función de entropía cruzada](https:// | ||
+ | - Sobre [la divergencia Kullback-Leibler](https:// | ||
+ | |||
+ | ### Perdida binaria por entropía cruzada | ||
+ | |||
+ | {{: | ||
+ | |||
+ | {{: | ||
+ | |||
+ | ### Pérdida por divergencia KL | ||
+ | |||
+ | {{: | ||
+ | |||
+ | ### Pérdida por inmersión de coseno (*CosineEmbeddingLoss*) | ||
+ | |||
+ | - Repaso de la [similaridad por coseno](https:// | ||
+ | |||
+ | ### Pérdida por clasificación temporal conexionista (CTC) | ||
+ | |||
+ | {{: | ||
+ | |||
+ | {{: | ||
+ | |||
+ | {{: | ||
+ | |||
+ | {{: | ||
+ | |||
+ | **Vínculo hacia el [artículo](https:// |