Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentes Révision précédente
Prochaine révision
Révision précédente
equipes:rcln:ancien_wiki:mexique:week11 [2020/08/25 18:08]
garciaflores [Pérdida por entropía cruzada]
equipes:rcln:ancien_wiki:mexique:week11 [2020/11/23 18:42] (Version actuelle)
garciaflores ↷ Page déplacée de equipes:rcln:mexique:week11 à equipes:rcln:ancien_wiki:mexique:week11
Ligne 57: Ligne 57:
  
 > "Si acumulas las capas de sigmoides en tu red. ésta no va a aprender de manera eficiente [...] en este caso debes poner mucha atención a la normalización" > "Si acumulas las capas de sigmoides en tu red. ésta no va a aprender de manera eficiente [...] en este caso debes poner mucha atención a la normalización"
 +
  
 > "Para redes muy profundas, las funciones no lineales quebradas [como el rectificador] son más convenientes" > "Para redes muy profundas, las funciones no lineales quebradas [como el rectificador] son más convenientes"
Ligne 84: Ligne 85:
  
 - ¿Qué es el [polinomio de Chebyshev](https://en.wikipedia.org/wiki/Chebyshev_polynomials)? - ¿Qué es el [polinomio de Chebyshev](https://en.wikipedia.org/wiki/Chebyshev_polynomials)?
-  > "funciones no lineales parametrizables con polinomios de Chebyshev para aproximar bien la función" 
  
-  - En un marco de [aprendizaje profundo geométrico](https://medium.com/@flawnsontong1/what-is-geometric-deep-learning-b2adb662d91d), el polinomio de Chebysev, se puede usar para [aproximar una función cuya complejidad representa un obstáculo para su cálculo](https://towardsdatascience.com/geometric-deep-learning-a-quick-tour-12cef72492ca).  + > "funciones no lineales parametrizables con polinomios de Chebyshev para aproximar bien la función" 
-  - ¿Qué son los *spring parameters*? + 
 +   
 +- En un marco de [aprendizaje profundo geométrico](https://medium.com/@flawnsontong1/what-is-geometric-deep-learning-b2adb662d91d), el polinomio de Chebysev, se puede usar para [aproximar una función cuya complejidad representa un obstáculo para su cálculo](https://towardsdatascience.com/geometric-deep-learning-a-quick-tour-12cef72492ca).  
 + 
 +- ¿Qué son los *spring parameters*?  
 + 
 - [Funciones monótonas](http://dev.worldpossible.org:81/wikipedia_es_all_2016-02/A/Funci%C3%B3n_mon%C3%B3tona.html) (o isótonas) - [Funciones monótonas](http://dev.worldpossible.org:81/wikipedia_es_all_2016-02/A/Funci%C3%B3n_mon%C3%B3tona.html) (o isótonas)
  
 - Momento lexicográfico: ¿cómo traducimos *kink*? - Momento lexicográfico: ¿cómo traducimos *kink*?
 +
 +
  
 {{:equipes:rcln:mexique:image-20200825075136196.png?400|}} {{:equipes:rcln:mexique:image-20200825075136196.png?400|}}
Ligne 97: Ligne 105:
  
 - ¿[Es la normalización por lotes incompatible con la función sigmoide](https://hackerstreak.com/batch-normalization-how-it-really-works/)? - ¿[Es la normalización por lotes incompatible con la función sigmoide](https://hackerstreak.com/batch-normalization-how-it-really-works/)?
 +
 - [Softmax y temperatura](https://deepai.org/machine-learning-glossary-and-terms/softmax-layer) (en el marco de aprendizaje reforzado) - [Softmax y temperatura](https://deepai.org/machine-learning-glossary-and-terms/softmax-layer) (en el marco de aprendizaje reforzado)
  
  • Dernière modification: il y a 5 ans