タイトル & 超要約:S-LLMR!LLMでレコメンド爆上げ✨
ギャル的キラキラポイント✨ ● LLM(大規模言語モデル)の知識を賢く使うのがポイント💖 ● コールドスタートとかロングテール問題も解決しちゃう! ● ゲーティングメカニズムで、精度も信頼性もアップ⤴️
詳細解説 ● 背景 レコメンドって大事じゃん? でもデータ少ないとイマイチ…😱 LLMって賢いけど、そのまま使うとコストかかるし、間違えることもあるんだよね😢
● 方法 S-LLMRっていう新しい方法を使うよ!LLMにランキングのヒントをもらいつつ、本当に信頼できるときだけ採用✨ 学習可能なゲーティングメカニズムがポイント😉
● 結果 コールドスタート(初めての人)とかロングテール(売れ筋じゃない商品)にも強くなった!LLMの弱点をカバーして、レコメンドの精度が爆上がり🎉
続きは「らくらく論文」アプリで
Large language models provide rich semantic priors and strong reasoning capabilities, making them promising auxiliary signals for recommendation. However, prevailing approaches either deploy LLMs as standalone recommender or apply global knowledge distillation, both of which suffer from inherent drawbacks. Standalone LLM recommender are costly, biased, and unreliable across large regions of the user item space, while global distillation forces the downstream model to imitate LLM predictions even when such guidance is inaccurate. Meanwhile, recent studies show that LLMs excel particularly in re-ranking and challenging scenarios, rather than uniformly across all contexts.We introduce Selective LLM Guided Regularization, a model-agnostic and computation efficient framework that activates LLM based pairwise ranking supervision only when a trainable gating mechanism informing by user history length, item popularity, and model uncertainty predicts the LLM to be reliable. All LLM scoring is performed offline, transferring knowledge without increasing inference cost. Experiments across multiple datasets show that this selective strategy consistently improves overall accuracy and yields substantial gains in cold start and long tail regimes, outperforming global distillation baselines.