PART 0 · 개념 기초

지식 그래프가
LLM의 무엇을 보완하는가

LLM은 놀라운 언어 능력을 가졌지만, 치명적인 약점도 있습니다.
지식 그래프는 그 약점을 정확히 채워줍니다.

1. LLM은 지식을 어떻게 "알고" 있는가?

먼저 LLM이 지식을 저장하는 방식을 이해해야 합니다.
이걸 알아야 "왜 약점이 생기는지"가 보여요.

LLM의 지식 = 파라미터 안의 패턴

LLM은 수십억~수천억 개의 파라미터(숫자)로 이루어져 있습니다.
학습할 때 엄청난 양의 텍스트를 읽으면서
단어와 단어 사이의 통계적 패턴을 파라미터에 압축합니다.

예를 들어, "서울의 수도는"이라는 문장 뒤에
"대한민국"이 올 확률이 높다는 걸 학습한 거예요.

하지만 이 지식은 어디에, 어떤 형태로 저장되어 있는지 알 수 없습니다.
수십억 개의 숫자 속에 녹아들어 있을 뿐이에요.

비유: 수천 권의 책을 읽은 사람

LLM은 수천 권의 책을 읽고 내용을 기억하는 사람과 비슷합니다.

"프랑스의 수도는?" → "파리" (바로 대답)
"그거 어디서 읽었어?" → "...기억 안 나"
"그 정보가 맞다는 근거는?" → "...그냥 그런 것 같은데"

답은 할 수 있지만,
출처를 모르고, 틀렸는지 맞았는지 스스로 검증할 수 없습니다.

LLM의 지식은 "암묵적(implicit)"입니다.
파라미터 안에 녹아있어서 꺼내 볼 수 없고, 검증할 수 없고, 수정하기도 어렵습니다.

반면, 지식 그래프의 지식은 "명시적(explicit)"입니다.
어떤 사실이 어디에 있는지 바로 확인할 수 있고,
틀린 정보는 찾아서 고치거나 삭제할 수 있습니다.

2. LLM의 세 가지 약점

LLM이 아무리 똑똑해도,
다음 세 가지 문제는 LLM 혼자서는 해결할 수 없습니다.

약점 1

환각 (Hallucination)

모르는 것도
그럴듯하게 지어냅니다.
사실처럼 보이지만
실제로는 틀린 답변입니다.

약점 2

근거 부재

"왜 그렇게 답했어?"에
답할 수 없습니다.
출처나 근거를
제시하지 못합니다.

약점 3

맥락 단절

개별 사실은 알지만
사실 사이의 구조적 관계를
놓칩니다.
전체 그림을 못 봅니다.

구체적으로 어떤 문제가 생길까?

환각
"홍길동이 참여한 프로젝트는?" → "AI 혁신 프로젝트에 참여했습니다"
(실제로는 그런 프로젝트가 없는데, 그럴듯하게 만들어냄)

근거 부재
"그 정보의 출처는?" → "일반적으로 알려진 사실입니다"
(어디서 왔는지 추적 불가능)

맥락 단절
"홍길동의 팀장은 누구야?" → "김철수입니다"
"김철수의 전문 분야는?" → "마케팅입니다"
하지만 "홍길동과 김철수는 같은 프로젝트에서 일한 적이 있어?"라고 물으면?
→ 두 사실을 구조적으로 연결하지 못합니다.

3. 지식 그래프가 채워주는 것

LLM의 세 가지 약점에 대해
지식 그래프는 각각 정확한 해결책을 제공합니다.

1

환각 → 검증된 사실만 제공

지식 그래프에 실제로 존재하는 데이터만 LLM에게 전달합니다.
LLM은 전달받은 사실 범위 안에서만 답변하게 됩니다.

그래프에 없는 내용이면?
"해당 정보가 없습니다"라고 정직하게 답합니다.
이것이 근거 기반 답변(Grounded Response)입니다.

2

근거 부재 → 출처 추적 가능

지식 그래프의 모든 사실은
어떤 노드와 어떤 관계에서 왔는지 정확히 추적할 수 있습니다.

"홍길동은 카카오 소속입니다"라는 답변이 나왔다면
(홍길동) —[:근무]→ (카카오) 이 관계에서 왔다는 걸
사용자에게 보여줄 수 있어요.

"왜 그렇게 답했어?"에 답할 수 있게 됩니다.

3

맥락 단절 → 구조적 관계 제공

지식 그래프는 사실들이 관계로 연결되어 있습니다.
하나의 질문에 답할 때, 관련된 주변 맥락까지 함께 전달할 수 있어요.

"홍길동에 대해 알려줘"라고 물으면
→ 홍길동의 소속, 역할, 프로젝트, 팀원, 기술 스택까지
연결된 경로를 따라 맥락을 풍부하게 제공합니다.

이것이 단순 벡터 검색(Vector RAG)과
그래프 기반 검색(GraphRAG)의 핵심 차이입니다.

정리하면 이렇습니다.

LLM은 "말을 잘하는 능력"을 제공하고,
지식 그래프는 "말할 내용의 신뢰성"을 제공합니다.


둘을 합치면, 유창하면서도 정확한 AI가 됩니다.

4. 같은 질문, 다른 결과

같은 질문을 했을 때
LLM 단독과 LLM + 지식 그래프의 답변이 어떻게 다른지 봐요.

질문: "홍길동은 어떤 프로젝트에 참여했어?"

지식 그래프에는 다음 사실이 저장되어 있습니다:
(홍길동) —[:참여]→ (사내 검색 개선)
(홍길동) —[:참여]→ (고객 리뷰 분석)

LLM 단독

환각 위험

"홍길동은 AI 혁신 프로젝트
글로벌 확장 프로젝트
참여한 것으로 알려져 있습니다."

→ 실제로 존재하지 않는 프로젝트를
그럴듯하게 만들어냄
→ 출처 제시 불가

LLM + 지식 그래프

근거 기반 답변

"홍길동은 사내 검색 개선
고객 리뷰 분석 프로젝트에
참여했습니다."

→ 지식 그래프에 실제로 있는 사실만 답변
→ 근거 경로: (홍길동)→[:참여]→(프로젝트)

질문: "홍길동과 같은 팀에서 일한 사람은?"

지식 그래프 경로:
(홍길동) —[:소속]→ (개발팀) ←[:소속]— (김영희)
(홍길동) —[:소속]→ (개발팀) ←[:소속]— (박민수)

LLM 단독

맥락 단절

"정확한 정보를 확인하기 어렵습니다.
일반적으로 개발팀에는
다양한 직군이 포함됩니다..."

→ 관계 탐색 불가능
→ 일반론으로 빠짐

LLM + 지식 그래프

구조적 탐색

"홍길동과 같은 개발팀 소속인 사람은
김영희박민수입니다."

→ 그래프 경로를 따라 정확한 답변
→ 2-hop 관계 탐색으로 도출

5. 핵심 비교표
구분 LLM 단독 LLM + 지식 그래프
지식 저장 파라미터에 암묵적 저장 그래프에 명시적 저장
환각 위험 높음 — 모르면 지어냄 낮음 — 없으면 "없다"고 답함
출처 추적 불가능 가능 — 어떤 노드/관계에서 왔는지 표시
관계 탐색 제한적 — 개별 사실만 답변 강력 — 경로를 따라 맥락 탐색
지식 수정 어려움 — 재학습 필요 쉬움 — 노드/관계 직접 수정
자연어 이해 강력 — 핵심 강점 LLM이 담당
6. 핵심 정리