diff --git a/notas/16-recom-factorizacion.qmd b/notas/16-recom-factorizacion.qmd index f857ac24..1198c73f 100644 --- a/notas/16-recom-factorizacion.qmd +++ b/notas/16-recom-factorizacion.qmd @@ -155,7 +155,7 @@ donde $u_i$ es el renglón $i$-esimo de $U$ (gustos latentes del usuario $i$ en ::: callout-note -# ¿Por qué funciona la idea de factores latentes?** +# ¿Por qué funciona la idea de factores latentes? - El método de factorización de matrices de grado bajo ($k$) funciona compartiendo información a lo largo de películas y usuarios. Como tenemos @@ -348,16 +348,16 @@ un programa (contando vistas parciales, así que es un número real). La función objetivo (sin regularización) se define como -\begin{equation} +$$ L = \sum_{(i,j)} c_{ij}(p_{ij} - \sum_{l=1}^k u_{i,l}v_{j,l})^2 -(#eq:implicita) -\end{equation} +$$ {#eq-implicita} + Nótese que : - Cuando $c_ij$ es alta (porque $r_{i,j}$ es alta), para minimizar -esta cantidad tenemos que hacer la predicción de $p_{ij}cercana a 1, pues el error +esta cantidad tenemos que hacer la predicción de $p_{ij}$ cercana a 1, pues el error se multiplica por $c_{ij}$. Sin embargo, - Cuando $r_{i,j}$ es bajo, no es tan importante ajustar esta información con precisión: si $p_{ij} = 1$, puede ser @@ -785,7 +785,7 @@ vectorial de palabras, es posible simplificar considerablemente el modelo de arriba o LLMs para poder entrenarlos mucho más rápido, y obtener una representación que en muchas tareas se desempeña bien ([@word2vec]). Hay dos ideas básicas que se pueden usar para reducir la complejidad del entrenamiento (ver más -en [@goodfellow] y [@word2vec]: +en [@word2vec]): - Eliminar la segunda capa oculta: modelo de *bag-of-words* continuo y modelo de *skip-gram*. - Cambiar la función objetivo (minimizar devianza/maximizar verosimilitud) por una más simple, mediante un truco que se llama *negative sampling*. @@ -1083,8 +1083,7 @@ closest_to(modelo, ~ "tío" + "presidenta" - "presidente", n = 5) |> filter(word ### Evaluación de calidad de modelos {-} La evaluación de estas aplicaciones puede hacerse por ejemplo, con tareas de analogía, -con listas de singular/plurales, de adjetivos/adverbios, masculino/femenino, etc (ver [@word2vec]), -(ver por ejemplo https://github.com/tmikolov/word2vec/blob/master/questions-words.txt). Adicionalmente, +con listas de singular/plurales, de adjetivos/adverbios, masculino/femenino, etc (ver [@word2vec]), ver por ejemplo [aquí](https://github.com/tmikolov/word2vec/blob/master/questions-words.txt). Adicionalmente, si se utilizan en alguna tarea *downstream*, pueden evaluarse en el desempeño de esa tarea particular. diff --git a/notas/referencias/book.bib b/notas/referencias/book.bib index b7dd851f..7e25d65b 100755 --- a/notas/referencias/book.bib +++ b/notas/referencias/book.bib @@ -218,3 +218,29 @@ @article{word2vec biburl = {https://dblp.org/rec/bib/journals/corr/abs-1301-3781}, bibsource = {dblp computer science bibliography, https://dblp.org} } +@InProceedings{alsreg, +author="Zhou, Yunhong +and Wilkinson, Dennis +and Schreiber, Robert +and Pan, Rong", +editor="Fleischer, Rudolf +and Xu, Jinhui", +title="Large-Scale Parallel Collaborative Filtering for the Netflix Prize", +booktitle="Algorithmic Aspects in Information and Management", +year="2008", +publisher="Springer Berlin Heidelberg", +address="Berlin, Heidelberg", +pages="337--348" +} +@INPROCEEDINGS{recomendacion-implicita, +author={Y. Hu and Y. Koren and C. Volinsky}, +booktitle={2008 Eighth IEEE International Conference on Data Mining}, +title={Collaborative Filtering for Implicit Feedback Datasets}, +year={2008}, +volume={}, +number={}, +pages={263-272}, +keywords={electronic commerce;feedback;browsing activity;collaborative filtering;customer experience;implicit feedback datasets;personalized recommendations;purchase history;recommender systems;scalable optimization procedure;user preferences;watching habits;Data mining;Demography;Filtering;History;International collaboration;Motion pictures;Negative feedback;Recommender systems;TV;Watches;Collaborative filtering;implicit feedback;recommender system}, +doi={10.1109/ICDM.2008.22}, +ISSN={1550-4786}, +month={Dec},}