현재 로컬 LLM은 서버에 설치되어 있으며,MCP는 각자의 노트북에서도 실행이 가능해야 하기 때문에 로컬 환경에서 동작 가능한 구조를 갖춰야 한다.이를 위해 로컬 LLM을 API 형태로 배포하고, 로컬에서 해당 LLM을 호출해 MCP 서버를 실행하는 방식을 구성했다. 📌 전체 Flow서버: LLM이 설치되어 있음 → Docker로 띄워 외부에서 접근 가능하도록 설정로컬: MCP 서버 설치 → Docker로 배포된 LLM API를 호출하여 사용 🖥 서버 환경 설정1️⃣ 가상환경 생성 버전 충돌을 방지하기 위해 conda 환경에서 별도의 가상환경을 만든다.conda create -n 가상환경명conda activate 가상환경명conda deactivateconda remove -n 가상환경명 -all..