| Les deux révisions précédentes
Révision précédente
Prochaine révision
|
Révision précédente
|
equipes:rcln:ancien_wiki:mexique:week11 [2020/08/25 21:43] garciaflores [Función sigmoide] |
equipes:rcln:ancien_wiki:mexique:week11 [2020/11/23 18:42] (Version actuelle) garciaflores ↷ Page déplacée de equipes:rcln:mexique:week11 à equipes:rcln:ancien_wiki:mexique:week11 |
| |
| - ¿Qué es el [polinomio de Chebyshev](https://en.wikipedia.org/wiki/Chebyshev_polynomials)? | - ¿Qué es el [polinomio de Chebyshev](https://en.wikipedia.org/wiki/Chebyshev_polynomials)? |
| > "funciones no lineales parametrizables con polinomios de Chebyshev para aproximar bien la función" | |
| |
| - En un marco de [aprendizaje profundo geométrico](https://medium.com/@flawnsontong1/what-is-geometric-deep-learning-b2adb662d91d), el polinomio de Chebysev, se puede usar para [aproximar una función cuya complejidad representa un obstáculo para su cálculo](https://towardsdatascience.com/geometric-deep-learning-a-quick-tour-12cef72492ca). | > "funciones no lineales parametrizables con polinomios de Chebyshev para aproximar bien la función" |
| - ¿Qué son los *spring parameters*? | |
| | |
| | - En un marco de [aprendizaje profundo geométrico](https://medium.com/@flawnsontong1/what-is-geometric-deep-learning-b2adb662d91d), el polinomio de Chebysev, se puede usar para [aproximar una función cuya complejidad representa un obstáculo para su cálculo](https://towardsdatascience.com/geometric-deep-learning-a-quick-tour-12cef72492ca). |
| | |
| | - ¿Qué son los *spring parameters*? |
| | |
| - [Funciones monótonas](http://dev.worldpossible.org:81/wikipedia_es_all_2016-02/A/Funci%C3%B3n_mon%C3%B3tona.html) (o isótonas) | - [Funciones monótonas](http://dev.worldpossible.org:81/wikipedia_es_all_2016-02/A/Funci%C3%B3n_mon%C3%B3tona.html) (o isótonas) |
| |
| - Momento lexicográfico: ¿cómo traducimos *kink*? | - Momento lexicográfico: ¿cómo traducimos *kink*? |
| | |
| | |
| |
| {{:equipes:rcln:mexique:image-20200825075136196.png?400|}} | {{:equipes:rcln:mexique:image-20200825075136196.png?400|}} |
| |
| - ¿[Es la normalización por lotes incompatible con la función sigmoide](https://hackerstreak.com/batch-normalization-how-it-really-works/)? | - ¿[Es la normalización por lotes incompatible con la función sigmoide](https://hackerstreak.com/batch-normalization-how-it-really-works/)? |
| | |
| - [Softmax y temperatura](https://deepai.org/machine-learning-glossary-and-terms/softmax-layer) (en el marco de aprendizaje reforzado) | - [Softmax y temperatura](https://deepai.org/machine-learning-glossary-and-terms/softmax-layer) (en el marco de aprendizaje reforzado) |
| |