Ollama와 함께 ClickHouse MCP 서버를 사용하는 방법
이 문서에서는 Ollama와 함께 ClickHouse MCP 서버를 사용하는 방법을 설명합니다.
Ollama 설치
Ollama는 로컬 머신에서 대규모 언어 모델(Large Language Model, LLM)을 실행하기 위한 라이브러리입니다. 다양한 모델을 제공하며 사용이 간편합니다.
Mac, Windows 또는 Linux용 Ollama는 다운로드 페이지에서 다운로드하실 수 있습니다.
Ollama를 실행하면 백그라운드에서 로컬 서버가 시작되며, 이를 사용하여 모델을 실행할 수 있습니다.
또는 ollama serve 명령을 실행하여 수동으로 서버를 시작할 수도 있습니다.
설치가 완료되면 다음과 같이 모델을 로컬 머신으로 다운로드할 수 있습니다:
모델이 로컬 머신에 없는 경우 이 명령을 실행하면 모델을 다운로드합니다. 다운로드가 완료되면 다음과 같이 모델을 실행하세요:
도구 지원 기능이 있는 모델만 MCP Server와 함께 사용할 수 있습니다.
다운로드한 모델 목록은 다음과 같이 확인하실 수 있습니다:
다음 명령어를 사용하여 다운로드한 모델에 대한 자세한 정보를 확인하세요:
이 출력 결과에서 기본 qwen3 모델이 80억 개가 조금 넘는 파라미터를 가지고 있음을 확인할 수 있습니다.
ClickHouse MCP 서버 구성
MCPHost를 사용하여 YAML 또는 JSON 파일로 MCP Server를 구성할 수 있습니다. MCPHost는 홈 디렉토리에서 다음 순서로 구성 파일을 검색합니다:
.mcphost.yml또는.mcphost.json(권장).mcp.yml또는.mcp.json(이전 버전과의 호환성)
표준 MCP 구성 파일에서 사용하는 구문과 유사한 구문을 사용합니다.
다음은 ~/.mcphost.json 파일에 저장할 ClickHouse MCP 서버 구성 예시입니다:
표준 MCP 구성 파일과의 주요 차이점은 type을 지정해야 한다는 점입니다.
type은 MCP Server가 사용하는 전송 유형을 나타냅니다.
local→ stdio 전송 방식remote→ 스트리밍 가능한 전송 방식builtin→ 인프로세스(inprocess) 전송
다음 환경 변수도 구성해야 합니다:
이론적으로는 MCP 구성 파일의 environment 키 아래에 해당 변수들을 제공할 수 있어야 하지만, 실제로는 작동하지 않는 것으로 확인되었습니다.
MCPHost 실행
ClickHouse MCP 서버를 구성한 후, 다음 명령을 실행하여 MCPHost를 실행하세요:
또는 특정 설정 파일을 사용하려면:
--model을 제공하지 않을 경우, MCPHost는 환경 변수에서 ANTHROPIC_API_KEY를 찾아 anthropic:claude-sonnet-4-20250514 모델을 사용합니다.
다음과 같은 출력이 표시됩니다:
/servers 명령을 사용하여 MCP 서버 목록을 확인할 수 있습니다:
그리고 /tools를 사용하여 사용 가능한 도구를 확인하세요:
이후 ClickHouse SQL 플레이그라운드에서 사용 가능한 데이터베이스/테이블에 대한 질문을 모델에 할 수 있습니다.
소규모 모델을 사용하는 경우(기본 qwen3 모델은 80억 개의 파라미터를 보유하고 있습니다), 수행할 작업을 더 구체적으로 명시해야 합니다. 예를 들어, 특정 테이블에 대한 쿼리를 바로 요청하기보다는 데이터베이스와 테이블 목록을 먼저 명시적으로 요청해야 합니다. 대규모 모델(예: qwen3:14b)을 사용하면 이 문제를 부분적으로 완화할 수 있지만, 일반 소비자용 하드웨어에서는 실행 속도가 느려집니다.