Skip to content

Commit

Permalink
Arreglar typos y bibliografía
Browse files Browse the repository at this point in the history
  • Loading branch information
felipegonzalez committed Nov 1, 2023
1 parent 4dc31e5 commit 0af2f68
Show file tree
Hide file tree
Showing 2 changed files with 33 additions and 8 deletions.
15 changes: 7 additions & 8 deletions notas/16-recom-factorizacion.qmd
Original file line number Diff line number Diff line change
Expand Up @@ -155,7 +155,7 @@ donde $u_i$ es el renglón $i$-esimo de $U$ (gustos latentes del usuario $i$ en


::: callout-note
# ¿Por qué funciona la idea de factores latentes?**
# ¿Por qué funciona la idea de factores latentes?

- El método de factorización de matrices de grado bajo ($k$)
funciona compartiendo información a lo largo de películas y usuarios. Como tenemos
Expand Down Expand Up @@ -348,16 +348,16 @@ un programa (contando vistas parciales, así que es un número real).

La función objetivo (sin regularización) se define como

\begin{equation}
$$
L = \sum_{(i,j)} c_{ij}(p_{ij} - \sum_{l=1}^k u_{i,l}v_{j,l})^2
(#eq:implicita)
\end{equation}
$$ {#eq-implicita}
Nótese que :
- Cuando $c_ij$ es alta (porque $r_{i,j}$ es alta), para minimizar
esta cantidad tenemos que hacer la predicción de $p_{ij}cercana a 1, pues el error
esta cantidad tenemos que hacer la predicción de $p_{ij}$ cercana a 1, pues el error
se multiplica por $c_{ij}$. Sin embargo,
- Cuando $r_{i,j}$ es bajo, no es tan
importante ajustar esta información con precisión: si $p_{ij} = 1$, puede ser
Expand Down Expand Up @@ -785,7 +785,7 @@ vectorial de palabras, es posible
simplificar considerablemente el modelo de arriba o LLMs para poder entrenarlos mucho más rápido, y obtener una representación que en muchas tareas se desempeña bien ([@word2vec]).

Hay dos ideas básicas que se pueden usar para reducir la complejidad del entrenamiento (ver más
en [@goodfellow] y [@word2vec]:
en [@word2vec]):

- Eliminar la segunda capa oculta: modelo de *bag-of-words* continuo y modelo de *skip-gram*.
- Cambiar la función objetivo (minimizar devianza/maximizar verosimilitud) por una más simple, mediante un truco que se llama *negative sampling*.
Expand Down Expand Up @@ -1083,8 +1083,7 @@ closest_to(modelo, ~ "tío" + "presidenta" - "presidente", n = 5) |> filter(word
### Evaluación de calidad de modelos {-}

La evaluación de estas aplicaciones puede hacerse por ejemplo, con tareas de analogía,
con listas de singular/plurales, de adjetivos/adverbios, masculino/femenino, etc (ver [@word2vec]),
(ver por ejemplo https://github.com/tmikolov/word2vec/blob/master/questions-words.txt). Adicionalmente,
con listas de singular/plurales, de adjetivos/adverbios, masculino/femenino, etc (ver [@word2vec]), ver por ejemplo [aquí](https://github.com/tmikolov/word2vec/blob/master/questions-words.txt). Adicionalmente,
si se utilizan en alguna tarea *downstream*, pueden evaluarse en el desempeño de esa
tarea particular.

Expand Down
26 changes: 26 additions & 0 deletions notas/referencias/book.bib
Original file line number Diff line number Diff line change
Expand Up @@ -218,3 +218,29 @@ @article{word2vec
biburl = {https://dblp.org/rec/bib/journals/corr/abs-1301-3781},
bibsource = {dblp computer science bibliography, https://dblp.org}
}
@InProceedings{alsreg,
author="Zhou, Yunhong
and Wilkinson, Dennis
and Schreiber, Robert
and Pan, Rong",
editor="Fleischer, Rudolf
and Xu, Jinhui",
title="Large-Scale Parallel Collaborative Filtering for the Netflix Prize",
booktitle="Algorithmic Aspects in Information and Management",
year="2008",
publisher="Springer Berlin Heidelberg",
address="Berlin, Heidelberg",
pages="337--348"
}
@INPROCEEDINGS{recomendacion-implicita,
author={Y. Hu and Y. Koren and C. Volinsky},
booktitle={2008 Eighth IEEE International Conference on Data Mining},
title={Collaborative Filtering for Implicit Feedback Datasets},
year={2008},
volume={},
number={},
pages={263-272},
keywords={electronic commerce;feedback;browsing activity;collaborative filtering;customer experience;implicit feedback datasets;personalized recommendations;purchase history;recommender systems;scalable optimization procedure;user preferences;watching habits;Data mining;Demography;Filtering;History;International collaboration;Motion pictures;Negative feedback;Recommender systems;TV;Watches;Collaborative filtering;implicit feedback;recommender system},
doi={10.1109/ICDM.2008.22},
ISSN={1550-4786},
month={Dec},}

0 comments on commit 0af2f68

Please sign in to comment.