AI/MCP 3

Local LLM(Llama)을 활용한 MCP Server 구축

현재 로컬 LLM은 서버에 설치되어 있으며,MCP는 각자의 노트북에서도 실행이 가능해야 하기 때문에 로컬 환경에서 동작 가능한 구조를 갖춰야 한다.이를 위해 로컬 LLM을 API 형태로 배포하고, 로컬에서 해당 LLM을 호출해 MCP 서버를 실행하는 방식을 구성했다. 📌 전체 Flow서버: LLM이 설치되어 있음 → Docker로 띄워 외부에서 접근 가능하도록 설정로컬: MCP 서버 설치 → Docker로 배포된 LLM API를 호출하여 사용 🖥 서버 환경 설정1️⃣ 가상환경 생성 버전 충돌을 방지하기 위해 conda 환경에서 별도의 가상환경을 만든다.conda create -n 가상환경명conda activate 가상환경명conda deactivateconda remove -n 가상환경명 -all..

AI/MCP 2025.05.09

🤖 Claude에 MCP 서버를 설치해 파일 정리/유튜브 내용 요약/hwp 문서 작성 자동화하기

이번 포스트에서는 Claude에 MCP 서버를 설치하여 세 가지 기능을 구현하는 과정을 정리했다.이 MCP 시스템을 활용하면 Claude가 단순 대화형 AI를 넘어 진짜 개인 비서처럼 로컬 자원과 외부 API를 제어할 수 있게 된다.구현할 기능은 다음과 같다.로컬 파일 정리 + 드라이브 자동화유튜브 내용 요약 자동화HWP 문서 작성 자동화Let's dig in!📂 1. 로컬 파일 정리 + 드라이브 자동화 이 기능 역시 지난 포스트에 이어 시민개발자 구씨님의 유튜브 영상을 참고하여 구현해보았다!( MCP로 진짜 비서 된 Claude! 로컬 정리 + 드라이브 자동화 (코드 무료 제공)) 영상에서는 로컬 파일 시스템 또는 Google Drive MCP 서버를 설치하여 생산성을 높이는 방법을 소개하고 있다..

AI/MCP 2025.05.08

MCP 개념 이해 및 Claude Desktop을 통한 MCP 활용해보기

크게 화두가 되고 있는 MCP! 매번 활용해봐야지 하면서 미루고 미루다가 이번에 제대로 활용해보고자 한다.배경지식이 거의 없는 상태이기 때문에 유튜브 영상 "MCP써야 진짜 Claude다! 500% 활용 튜토리얼 (개념부터 활용까지)"을 통해 MCP 개념과 활용 방법을 먼저 살펴보았다. 🔻 MCP 개념MCP는 Model Context Protocol의 약자로, 컨텍스트를 이해하고 필요한 액션을 취할 수 있도록 도와주는 프로토콜이다. 개발자가 api를 활용하면 다른 서비스들을 쉽게 사용할 수 있는 것처럼, MCP는 AI가 다른 서비스들을 이용하기 쉽게 도와주는 일종의 소통 방식으로 생각하면 된다. 🔻 MCP 구조 MCP의 구조는 크게 HOST(AI모델 활용할 서비스), Client, Serve..

AI/MCP 2025.05.08