ai 7

LangChain

LangChainLangChain 은 LLM 기반 애플리케이션을 구성하는 프레임워크로, 다양한 모듈 (LangChain Components) 을 조합해 복잡한 LLM 기반 파이프라인을 구성하는 기능을 제공합니다. LangChain 은 Agent 뿐 아니라, PromptTemplate, Tool, Chain, Memory 등 다양한 구성 요소를 제공하며, Agent 는 외부 Tool 들과 LLM 을 동적으로 연결해 문제를 해결하는 방식의 한 예입니다. 한 편, LangChain 이 LLM 을 중심으로 설계된 건 맞지만, 전체 구조는 LLM 을 선택적으로 사용하는 조합형 프레임워크이기 때문에 LangChain 을 사용할 때 LLM 이 필수 구성 요소는 아닙니다.LangChain 의 Agent 는 LLM 의 ..

AI/LLM 2025.05.08

LLM Agent

LLM AgentLLM Agent 는 LLM 이 사용자 입력이나 외부 환경에 따라 적절한 판단을 내려, 사전에 정의된 도구 (tool), 함수 (function), API 등을 자율적으로 호출하거나 실행할 수 있는 구조를 가진 시스템입니다. 즉, 단순한 문장 생성 모델이 아니라, 행동 가능한 의사결정 주체로서의 LLM 을 의미합니다.LLM Agent 구현 방법LLM Agent 는 단순한 답변 생성기를 넘어 복잡한 조건 분기를 스스로 판단해 다음 단계를 결정할 수 있어야 합니다. 이를 위해 LLM 에게 function call, tool use, 분기 판단을 학습시키거나 프롬프트로 유도합니다. LangChain 은 Agent 시스템을 쉽게 만들 수 있도록 도와주는 프레임워크입니다. 하지만 LangChain..

AI/LLM 2025.04.24

RAG

RAG (Retrieval-Augmented Generation)R (Retrieval, 검색): 외부 데이터베이스에서 관련 정보를 검색A (Augmented, 증강): 검색된 정보를 LLM 입력 (prompt) 에 추가하여 활용G (Generation, 생성): 프롬프트를 통해 제공된 외부 데이터를 참고하여 최종 답변을 생성즉, RAG 는 시스템 설계자가 LLM 을 외부 데이터베이스와 미리 연결한 후, 질의가 들어올 때마다 외부 정보를 검색하여 프롬프트를 통해 정보를 증강시켜 답변 품질을 향상시키는 방식입니다. 검색 자체는 단순한 데이터 조회이며, 검색한 데이터가 LLM 의 모델 자체에 축적되지는 않기 때문에 검색해온 데이터를 프롬프트를 통해 LLM 에 직접 추가해주어야 합니다. RAG 는 LLM 자체..

AI/LLM 2025.02.20

NLP 간단 정리

텍스트 전처리 (Preprocessing)텍스트를 모델이 이해할 수 있는 형태로 변환하는 과정텍스트를 정제하여 학습 데이터 불균형을 방지하고 성능 저하를 막음학습과 테스트 과정 모두 사용모델을 평가할 때, 학습 데이터와 동일한 방식으로 전처리해야 일관된 결과가 나옴딥 러닝 모델 사용 여부에 따라 전처리 정도가 달라질 수는 있으나, 전통적인 NLP 방식과 딥 러닝 기반의 NLP 방식 모두에서 전처리는 중요한 과정텍스트 전처리의 주요 단계텍스트 정제 (Cleaning)HTML 태그, 이모지, 특수문자 제거ex. "Hello!" → "Hello!"토큰화 (Tokenization)문장을 단어 또는 서브워드 단위로 분리ex. "I love NLP!" → ["I", "love", "NLP", "!"]정규화 (Nor..

AI/NLP 2025.02.11

PyTorch 자주 쓰이는 함수

torch.randn:주어진 크기의 텐서를 생성하고, 그 안에 평균 0, 표준편차 1 인 정규분포에서 랜덤 샘플링된 값을 채우는 함수ex.torch.randn(3)size: (3)torch.randn(3, 4, 5)size: (3, 4, 5)torch.rand:주어진 크기의 텐서를 생성하고, 그 안에 0 이상 1 미만의 균등분포에서 랜덤 샘플링된 값을 채우는 함수ex.torch.rand(3)size: (3)torch.rand(3, 4, 5)size: (3, 4, 5)torch.randint:주어진 크기의 텐서를 생성하고, 그 안에 low 이상 high 미만의 정수값을 랜덤하게 채우는 함수텐서의 크기는 튜플 형태로 제공ex.torch.randint(low=0, high=10, size=(3, 4))size..

AI/PyTorch 2025.02.03

시계열 데이터 딥 러닝 모델

RNN 파라미터 설명batch size:한 번의 순전파동안 처리되는 시퀀스 묶음의 개수만약 batch_size=3 이라면, 한 번에 3 개의 시퀀스 묶음을 입력으로 처리seqence length: 각 시퀀스가 몇 개의 타임스텝으로 이루어져있는지 나타내는 길이. 즉, 한 시퀀스 안에 몇 개의 입력이 있는지 나타내는 길이만약 seq_len=5 라면, 각 시퀀스는 5 개의 타임스텝으로 구성ex. 하나의 문장이 5 개의 단어로 이루어져 있다면, 그 문장의 시퀀스 길이는 5input size: 각 타임스텝에서 입력되는 데이터의 특성 (feature) 수만약 input_size=4 라면, 각 타임스텝에서 4 개의 특성이 입력ex. 온도, 습도, 바람 속도, 기압 네 가지 특성을 포함한 날씨 데이터라면, input..

AI/Spatio-temporal 2025.01.28

nvidia-smi, nvcc --version, CUDA, cuDNN

nvidia-smiGPU 상태를 모니터링하는 CLI 도구NVIDIA 드라이버 설치시 제공 (단독으로 설치 불가)NVIDIA GPU 만 지원하는 도구로 다른 제조사의 GPU 에는 사용할 수 없음nvidia-smi 는 출력 내용중 NVIDIA 드라이버가 지원하는 최대 CUDA Runtime 버전 (해당 GPU 가 최대 지원하는 버전 내에서) 을 함께 출력하는데 이는 현재 설치된 CUDA Toolkit 버전 (CUDA 버전) 과는 무관합니다.Runtime 은 프로그램이 실행될 때 필요한 함수와 라이브러리를 제공하는 동적 실행 환경을 의미합니다. 즉, CUDA Runtime 은 NVIDIA 가 제공하는 CUDA 실행 환경으로, GPU 를 이용한 병렬 컴퓨팅을 쉽게 할 수 있도록 지원하는 API 와 라이브러리 집..

기타 지식 2025.01.06