본문 바로가기

Dev/AI11

확률 기반 모델(probabilistic model) **확률 기반 모델(probabilistic model)**은 머신러닝, 자연어 처리, 추천 시스템, 데이터 분석 등 다양한 분야에서 널리 사용됩니다.아래에 대표적인 확률 기반 모델들을 분야별로 정리해 드리겠습니다.✅ 대표적인 확률 기반 모델 목록 분류 모델 이름 설명 📊 통계/머신러닝Naive Bayes조건부 확률을 기반으로 텍스트 분류 등에서 사용 Bayesian Network변수 간 확률적 의존관계를 표현하는 그래프 모델 Hidden Markov Model (HMM)시계열 데이터에서 상태 전이와 관측 확률을 모델링 Gaussian Mixture Model (GMM)여러 개의 정규분포로 데이터를 설명하는 클러스터링 모델 Expectation Maximization (EM)잠재 변수 포함된 모델의 .. 2025. 6. 29.
랭체인(LangChain) RAG나 LLM 기반 서비스에서 자주 언급되는 **LangChain(랭체인)**은 대형 언어 모델(LLM)을 활용한 응용 프로그램을 쉽게 구성할 수 있게 해주는 파이썬/자바스크립트 기반 프레임워크입니다.✅ LangChain이란?LangChain은 LLM을 다양한 데이터 소스(문서, DB, API 등)와 연결하고, 체계적으로 처리하는 파이프라인을 쉽게 구성하는 오픈소스 프레임워크입니다.핵심 목적: LLM을 문서 검색, 데이터 처리, 사용자 질의응답, 멀티스텝 Reasoning 등에 실제 업무 로직에 연결하기 쉽도록 해줌.주로 RAG(Retrieval-Augmented Generation), 에이전트 기반 챗봇, 검색 기반 질의응답 시스템에 많이 활용됨.✅ LangChain 주요 구성 요소구성 요소설명Pro.. 2025. 6. 27.
검색 증강 생성(Retrieval-Augmented Generation; RAG) ✅ RAG란? (Retrieval-Augmented Generation)RAG는 외부 지식을 검색(Retrieval)하여, 생성(Generation)에 활용하는 AI 기술 방식입니다.즉, "생성형 AI + 검색 시스템"을 결합한 구조입니다. 🔍 개념 요약RAG는 다음 2단계로 동작합니다:Retrieval (검색)주어진 질문에 대해, 벡터 DB 또는 문서 저장소에서 관련 문서나 정보를 검색합니다.주로 FAISS, Weaviate, Elasticsearch, Pinecone 등이 사용됩니다.Generation (생성)검색된 문서를 기반으로, LLM(예: GPT)이 답변을 생성합니다.이때 검색된 문서를 context로 넣어 정확도와 신뢰도를 높입니다.✅ 왜 필요한가?기존 LLM(예: GPT-3.5, GPT-.. 2025. 6. 26.
딥러닝(Deep learning) **딥러닝(Deep Learning)**은 머신러닝의 한 분야이며, **인공신경망(Artificial Neural Network)**을 기반으로 데이터로부터 더 복잡하고 추상적인 패턴을 자동으로 학습하는 기술입니다. ✅ 딥러닝 vs 머신러닝항목머신러닝딥러닝핵심 개념사람이 특징(Feature)을 설계모델이 스스로 특징을 학습알고리즘 예시SVM, 결정트리, 랜덤포레스트 등CNN, RNN, Transformer 등성능소규모 데이터에 유리대규모 데이터에 매우 뛰어난 성능특징 추출 방식수동 설정 (전문가가 설계)자동 추출 (신경망이 스스로 학습)계산 비용비교적 적음매우 큼 (GPU 필수, 병렬 처리 필요) ✅ 왜 “딥”인가?"Deep"은 신경망의 층(Layer)이 깊다는 뜻입니다.단순한 신경망이 아니라, 수십~.. 2025. 6. 26.
감독학습 비감독학습 강화학습 **머신러닝(Machine Learning)**은 컴퓨터가 명시적인 프로그래밍 없이도 데이터를 통해 스스로 학습하고, 예측하거나 판단하게 만드는 기술입니다.감독학습(Supervised Learning), 비감독학습(Unsupervised Learning), 강화학습(Reinforcement Learning)은 머신러닝의 세 가지 대표적인 학습 방법입니다.각각의 개념, 목적, 사용 예시, 차이점을 아래에 정리하였습니다. ✅ 1. 감독학습 (Supervised Learning)🔹 정의입력(Input)과 정답(Output)이 쌍으로 주어진 레이블링된 데이터를 바탕으로 학습하여, 새로운 입력에 대한 출력을 예측하는 방법.🔹 목표입력 → 출력(레이블)을 정확히 예측하는 모델 학습🔹 예시스팸 메일 분류 (스.. 2025. 6. 26.
Self-Attention 매커니즘 설명 Self-Attention 매커니즘 이란?- Self-Attention 메커니즘은 입력 시퀀스 내 각 요소(예: 단어)가 다른 모든 요소와의 관계를 계산해, 문맥 정보를 동적으로 반영하는 방식이다.- 각 단어는 Query, Key, Value로 변환되어, 전체 단어들과의 관계를 점수화하고 가중합으로 표현된다.- 이 방식은 문맥을 동적으로 반영하여 의미 파악에 도움을 준다.- 트랜스포머의 핵심 구성 요소이며, 병렬 계산이 가능하다.- 멀티-헤드 방식으로 다양한 관계를 동시에 학습할 수 있다. Self-Attention 특징 및 장단점구분내용주요 특징- Query, Key, Value 벡터 사용- 입력 내 모든 요소 간 관계 동시 계산- 문맥 정보 동적 반영장점- 병렬 처리 가능- 긴 시퀀스(문장)에서도.. 2025. 5. 16.