ML
-
추천 알고리즘 선정ML/추천 스터디_basic 2025. 8. 1. 14:56
유저의 메타정보는 천개정도 있고, 아이템의 메타정보는 없어. 그럼 어떤게 적합해? lightgcn , tabnet, deepfm, gru4rec 네개중에 비교해줘좋은 조건이에요.**"유저 메타정보는 많고 (1000개), 아이템 메타정보는 없음"**이라는 조건 아래에서,LightGCN, TabNet, DeepFM, GRU4Rec 네 가지 모델을 비교해드릴게요.👉 목적이 추천 시스템이고, 유저 행동 로그 (ex. 클릭/결제 이력)를 기반으로 한다고 가정할게요.✅ 조건 요약✅ 유저 수 많음 (수천만 명일 수 있음)✅ 유저당 메타데이터 1000개 이상 있음❌ 아이템 메타정보 없음 (item ID만 존재)✅ 유저의 클릭/결제 로그 존재 (시퀀스 or pair data 형태)🔍 1. LightGCN항목설명데이터..
-
01. 최신 트렌드 w/빅테크ML/추천 스터디 _llm 2025. 7. 10. 14:54
크게 두가지 정도로 나뉘는듯.그중에서 흥미로운 건 소비자 행동로그 요약하는 부분, 어느 경우에 성능좋은지는 좀 더 디깅필요 1. 모델 input data에 활용 - 소비자 행동로그 요약한 텍스트-> embedding vector(amazon) - 다만 이게 기존 tabular의 embedding보다 더 좋은 성능인지는 상황따라 다르다고함. (예. 콜드스타트) - amazon의 cosmo , 근데 아직 인용수 적음. - 요약해서 다듬기(예. 검색 쿼리를 요약, pinterest)2. 사용성 증대 - 추천한 이유 설명(ex. spotify) - 재밌는 활용처이긴 한데 한번 쓰고 끝날것 같은 느낌..? - 이어서 질문(ex. 대화형검색) llm이 잘하는 요약, 설명, 질문 등을 ..
-
LLM + 추천 트렌드 스터디 계획ML/추천 스터디 _llm 2025. 7. 8. 14:41
이중에 거를거 거르고 볼거 보려면 좀더 다듬어야할듯🎯 LLM + 추천 시스템 커리큘럼 (6~8주 코스)💡 학습 목표LLM 기반 추천 시스템의 개념과 유형 파악Retrieval-augmented generation, Agent 기반 추천 학습LLM을 활용한 사용자 대화형 추천, 설명가능한 추천 구현최신 논문과 실무 사례 학습실습을 통해 간단한 LLM 기반 추천 시스템 구현✅ Week 1~2. 개요 및 트렌드 인식📘 학습 목표왜 LLM이 추천 시스템에 영향을 주기 시작했는가기존 RecSys의 한계 + LLM의 역할 이해🔍 학습 내용LLM4Rec 개념 이해: LLM이 추천 시스템에 어떻게 기여할 수 있나?기존 RecSys와의 차이점 (Embedding-based vs Language-based)주요 아..
-
추천 스터디 계획ML/추천 2025. 7. 8. 14:34
공부할 목록✅ 1. Retrieval + Ranking + Re-ranking 멀티 스테이지 구조왜 중요한가?→ YouTube, TikTok, 쿠팡 등 실서비스에서 모두 이 구조 사용 중. 사용자 수 많을수록 필수.중점적으로 볼 커리큘럼 파트:CH06. 추천시스템 구성 및 사례분석Retrieval & Ranking 구조실제 사례: YouTube, Doordash, PinterestCH05. 현업 알고리즘Two-Tower, DCN, DLRM 실습추가 참고 키워드: Multi-stage recommender, candidate generation, cascade model✅ 2. GNN 기반 추천 시스템 (Graph Neural Network)왜 중요한가?→ 사용자-아이템 관계가 매우 sparse해지고 있고..
-
early stoppingML/DeepLearning 2025. 4. 7. 15:55
출처: gpt 좋아, 딥러닝에서 자주 쓰는 **early stopping** 개념을 간단하고 직관적으로 설명해줄게!---### 🛑 Early Stopping이란?> **모델이 더 이상 개선되지 않으면 학습을 조기 종료하는 기법**이야.---### 🤔 왜 쓰는 걸까?- **오버피팅(overfitting)** 방지: 너무 오래 학습하면 모델이 학습 데이터에 과하게 맞춰져서, validation 성능은 오히려 **나빠질 수 있어**.- **학습 시간 절약**: 이미 최적 성능을 낸 뒤에는 **더 돌려봐야 의미 없음** → 시간 낭비 방지.---### 💡 어떻게 동작하냐면?보통은 아래 로직을 써:1. 매 epoch마다 **validation loss (또는 accuracy)** 를 확인해...
-