콘텐츠로 이동

5.C. 긴 텍스트 요약하기

5.C. 긴 텍스트 요약하기🔗

▶ 필요한 것: ChatGPT 등 대부분의 대화형 LLM 서비스

이번 섹션은 '긴 텍스트 요약'이라는, 어찌 보면 단순한 하나의 작업을 여러 단계에 나눠 처리했던 실제 사례를 살펴보겠습니다. 앞서 3.D. 단계적으로 지시하기에서 짧게 언급했던 예시의 실전 적용 사례인 셈인데, "요약 정도야 프롬프트 한 번이면 충분하지 않나? 굳이 왜 이렇게 번거롭게 단계를 나눌까?" 하는 의문이 들 수 있습니다.

짧은 문서 요약은 한 번의 프롬프트로도 괜찮은 결과가 나옵니다. 하지만 1시간 이상의 강연 녹취록은 다릅니다. 특히 일상의 여러 강연이나 회의의 녹취록은 대부분 다음과 같은 특징들이 있습니다.

  • 구어체는 "음", "그래서", "막" 같은 불필요한 말이 많음
  • 화자가 같은 이야기를 여러 번 반복하거나 주제를 오락가락함 (예: 잠깐씩 강연 앞/뒤의 주제를 언급하는 등)
  • 중요한 부분과 잡담이 섞여 있어 구분이 어려움
  • 양이 너무 많아서 한 번에 처리하면 중요한 정보를 놓치기 쉬움

* AI 생성 이미지 with Nano Banana Pro

여기에 더해, 녹취록에서는 맥락 손실구조적 비효율이라는 두 가지 근본적 문제가 있습니다.

첫째, 강연에서 화자가 "이것이 바로 핵심입니다"라고 강조한 부분이 텍스트로는 다른 평범한 문장들 사이에 묻혀버립니다. 음성의 강세, 반복, 시간 배분 같은 신호들은 녹취록으로 변환되는 순간 사라지고, 이는 중요도 판단의 오류로 이어집니다.

둘째, 서로 다른 성격의 여러 작업(문체 변환, 정보 선별, 구조 재편 등)을 동시에 수행하면 오류가 누적됩니다. 구어체를 정리하면서 중요한 수치가 빠질 수 있고, 논리적으로 재구성하다가 인과관계가 왜곡될 수 있으며, 양식에 맞추다가 필수 정보가 누락될 수 있습니다.

이러한 한계는 단순히 프롬프트를 "더 잘" 작성한다고 해결되지 않습니다. 문제의 본질은 작업의 복잡도입니다.

그렇다고 복잡한 작업을 위해 상세한 지침들을 정리하다 보면 프롬프트가 양적으로도 길뿐만 아니라 질적으로도 상당히 어려워질 수밖에 없습니다. 게다가 처리할 텍스트의 양도 적지 않다면... LLM이 원문 전체에 걸쳐 모든 지침을 정확히 처리할 가능성은 더더욱 낮아집니다.

따라서 복잡하고 큰 작업은 한 번에 처리하지 말고 작은 세부 단계들로 나누어 차근차근 접근해야 합니다.

💭 사람은 너무 자연스럽게 처리하는 탓에 난이도를 느끼지도 못하는 어떤 작업은 막상 자세히 들여다보면 예상외로 여러 고차원적 사고/처리 과정을 거치는 작업인 경우가 있습니다. '긴 텍스트 요약'도 바로 그중 하나입니다.

작업의 종류, 원문의 길이 및 특징, 결과 양식 등 목적이나 요구사항이 다를 때는 그에 맞는 단계별 세부 목표/지침을 조정하거나 새로 설계해야 합니다. 필요에 따라선 단계를 추가하거나 생략할 수도 있습니다.

이번 섹션에서 살펴볼 사례의 경우, 다음과 같이 4단계에 걸친 하위/세부 작업들로 처리하였습니다.

graph TD
    A["<b>1단계: 준비</b> (전략 수립)<br/>────────────<br/>• 최종 양식 분석 및 결정<br/>• 프롬프트 템플릿 설계"]
    B["<b>2단계: 정리</b> (전처리)<br/>────────────<br/>• 구어체 → 문어체 변환<br/>• 주제별 그룹화<br/>(시간 순서는 유지)<br/>• 반복 실행으로 신뢰성 확보"]
    C["<b>3단계: 통합</b> (완전성 확보)<br/>────────────<br/>• 여러 중간 요약본 비교<br/>• 누락 정보 보완"]
    D["<b>4단계: 완성</b> (논리적 재구성)<br/>────────────<br/>• 최종 양식 적용<br/>• 시간 순 → 논리적 흐름 재배치"]

    A --> B
    B --> C
    C --> D

    style A fill:#1976d220,stroke:#1976d2,stroke-width:3px
    style B fill:#7b1fa220,stroke:#7b1fa2,stroke-width:3px
    style C fill:#f57c0020,stroke:#f57c00,stroke-width:3px
    style D fill:#388e3c20,stroke:#388e3c,stroke-width:3px

1단계: 준비 - 양식 정하기🔗

먼저 최종 요약문이 어떤 모양이어야 하는지 분석합니다.

똑같은 등산이라도 어느 산에 오를지에 따라 준비물부터 경로까지 많은 것들이 달라지듯, 요약 작업도 어떤 텍스트를 어떻게 요약/정리해 어떤 결과물을 만들지에 따라 처음부터 중간 과정들이 각기 달라야 할 것입니다. 참고할 수 있는 기존 샘플이 있다면 먼저 분석하고, 없다면 어떤 양식으로 만들지부터 정해야 합니다.

💭 사실 처음부터 몇 단계로 나눠야겠다고 정하고 시작한다기보다, 1단계 준비 과정에서 전체적인 작업 계획을 구상하면서 대략 결정하게 됩니다. 잘 모르겠으면 LLM에 이러이러한 데이터가 있고 어떤 작업을 해서 어떻게 만들어야 하는데 작업 계획을 제안해봐. 같이 구체적으로 질문을 해도 좋습니다.

최종 결과 양식 예시

이번 사례에서 실제로 요청 받았던 결과물의 양식은 대략 다음과 같이 구성되어 있습니다.

참고로 하단에 [] 기호로 감싸진 설명은 ChatGPT에게 실제 샘플 파일을 분석시켜 '어떤 내용이 들어가는가'를 정리한 내용이고, 목록 기호는 원래 가 쓰였으나 편의상 마크다운 서식인 -로 변경하였습니다.

핵심 내용
- [한 문장으로 전체 요약]

배경 및 현황
- [어떤 문제/상황인지]
- [구체적 수치나 데이터]
- [기존 방식의 한계]

제안 방안
- [어떤 해결책을 제시했는지]
- [구체적 방법]

주요 효과 및 장점
- [어떤 효과가 있는지]
- [기존 대비 개선점]

핵심 인사이트 및 시사점
- [중요한 통찰]
- [다른 곳에 적용 가능한 교훈]

용어 정리
- [용어]: [설명]

이 단계에서 만든 것 : 최종 요약용 프롬프트

그리고 ChatGPT에게 어떤 강연 녹취록 원문을 어떻게 하면 위와 같은 양식으로 정리할 수 있을까? 최적의 프롬프트를 제안해봐.와 같이 질문/요청하여 추천 받은 프롬프트는 다음과 같은 식입니다.

당신은 강연 요약 전문가입니다. 
중간 요약본을 분석하여 아래 양식에 맞춰 최종 요약문을 작성하세요.

작성 지침:
1. 논리적 흐름: 핵심 메시지 → 배경 → 해결책 → 효과 → 시사점
2. 구체적으로: 추상적 표현 말고 수치, 사례, 데이터 포함
3. 중복 제거: 각 섹션이 다른 가치를 제공하도록
4. 실무 관점: 이론만이 아니라 실제 적용 가능성도

작성 양식: 
[위의 양식 붙여넣기]

중간 요약본: [첨부]

💭 처음 추천 받았던 프롬프트는 당연히 '녹취록 원문'이라고 언급돼 있었으나, 이후 계획을 변경해 중간 요약을 거치기로 한 점을 반영해 '중간 요약본'이라는 표현으로 수정하였습니다.


2단계: 정리 - 녹취록을 깔끔하게🔗

앞에서 최종 결과물을 어떻게 만들지 양식과 세부 지침을 정하고, 이제 원문을 전체적으로 살펴보니 그 양이 제법 많았습니다. 공백 제외 약 15,000자 (공백 포함 약 20,000자)이고 단어 수로도 5,000개가 넘었습니다. 한국어라는 점을 감안하면 약 7,500 ~ 10,000 토큰 정도라 최신 LLM이 감당 못할 수준은 아니지만, 성능 저하가 불가피해 보였습니다.

따라서 본격적인 요약에 들어가기 전, 원본 녹취록의 불필요한 부분을 빼고, 여기저기 흩어져 있는 중요한 내용을 읽기(찾기) 쉽게 정리할 필요가 있었습니다. 즉, 이 단계는 요약이 아니라 정리에 가깝습니다. 정보의 양을 줄이는 것이 아니라, 정보를 가능한 그대로 유지하되 구어체를 문어체로 변환하고 흩어진 내용을 주제별로 묶어 접근성을 높이는 것이 목표입니다. 마치 어지러운 책상을 정리하되 물건을 버리지 않는 것과 같습니다.

이 단계에서 만든 것 : 전처리(정리) 프롬프트

여기서도 ChatGPT에게 (실제 원문 업로드 후) 이런 녹취록 원문을 요약하기 전에 불필요한 표현이나 강연과 무관한 내용 등을 제거하기 위한 프롬프트를 제안해봐.와 같이 요청하여 추천 받은 프롬프트는 다음과 같습니다.

다음 강연 녹취록 원문을 읽고 중간 요약본을 작성하세요.

원칙:
1. 시간 흐름 유지: 화자가 말한 순서대로 정리
2. 핵심 내용 보존: 중요한 데이터나 사례는 빼지 말 것
3. 문어체 변환: "그래서", "막" 같은 구어체 표현 정리
4. 개인 일화 정리: 핵심 메시지와 관련 있을 때만 간략히

제거할 것:
- 반복되는 연결어 ("그래서", "어쨌든")
- 의미 없는 감탄사 ("막", "좀", "이제")
- 너무 세세한 개인 이야기

보존할 것:
- 구체적 수치 (연도, 횟수, 금액 등)
- 기술명, 회사명, 제품명
- 중요한 사례
- 화자의 주요 주장

형식:
**[주제]**
- 핵심 내용을 문어체로 정리
- 관련 데이터나 사례 포함
- 다음 주제로의 연결

녹취록: [첨부]

예시: (변환 전) 녹취록 원문 일부

그래서 이제 먼저 언어 모델의 발전 먼저 살펴보면은 텍스트를 생성하는 모델이죠.
먼저 17년에 트랜스포머가 나오고 굉장히 많은 언어 모델이 나오다가 챗gpt가 빵 뜨고 나서
그다음에 지금 이제 딥식도 나오고...

예시: (변환 후) 중간 요약본 일부

**언어 모델 발전 현황**
- 2017년 트랜스포머 등장 이후 다양한 언어 모델 출현
- ChatGPT 대중화 이후 딥시크, GPT-4, 제미나이, 클로드 등 주요 모델들이 글 작성과 코딩에서 높은 성능 달성
- GPT-4 출시 시점부터 다양한 시험에서 인간 수준 이상의 성적 기록

직전에 언급한 것처럼 이번 단계에서는 실제 요약이 아닌 정리가 목표이고, 중요한 정보가 누락되는 것을 최대한 막아야 했습니다. 따라서 LLM이 한 번은 실수로 놓친(생략한) 내용이라도 살아남을 수 있도록, 프롬프트를 아주 약간만 바꿔서 한 번 더 실행해 다른 버전의 중간 요약본을 얻었습니다.

상황에 따라선 녹취록 원문을 다음과 같이 주요 목표/지침을 바꿔가며 전처리하는 것도 유용할 수 있습니다. 중요한 작업일수록 어떤 방식으로든 반복 실행을 통해 신뢰성을 높이는 전략을 고려하기 바랍니다.

  • 1차: 전체 흐름 중심
  • 2차: 구체적 데이터와 사례 중심
  • 3차(선택): 특정 기술 내용 집중

📌 참고 : 같은/다른 LLM으로 반복 시도하면 답변 내용의 신뢰성을 간접적으로 확인할 수 있습니다. 보편적이고 신뢰할 수 있는 내용일수록 여러 답변에 공통적으로 등장하는 경향이 있고, 다소 편향되거나 환각에 가까울수록 등장 빈도가 떨어집니다. LLM이 사람처럼 '뭐가 중복인지, 뭐가 중요한지' 같은 판단을 내리긴 어렵다는 점을 항상 유의해야 합니다.

최근에는 이 같은 점에 착안한 AI 답변의 신뢰도 측정 기법 연구(바로가기)가 발표되기도 했습니다.


3단계: 통합 - 여러 요약본 합치기🔗

앞 단계에서 불필요한 텍스트를 제거하는 작업에 집중해 여러 중간 요약본을 만들었으니, 이제 이들을 비교하며 빠진 내용이 없는지 확인함으로써 하나의 완전한 중간/통합 요약본으로 합치는 작업을 할 차례입니다. 이 단계의 핵심 목표는 '완전성 확보'입니다.

이 단계에서 만든 것 : 통합 작업 프롬프트

두 개의 중간 요약본을 하나로 통합하는 작업은 다음 프롬프트와 같이 기준만 명확히 해주는 식으로 직접 작성했습니다.

다음은 같은 녹취록을 다른 관점에서 요약한 두 개의 중간 요약본입니다.
이를 하나로 통합해주세요.

통합 지침:
1. 두 요약본에 공통으로 나온 내용은 반드시 포함 (핵심일 가능성 높음)
2. 한쪽에만 나온 내용도 중요하다면 포함 (필요 시 원문도 참조)
3. 같은 내용을 다르게 표현한 경우, 더 구체적이고 정확한 쪽 선택
4. 중복은 제거하되 정보 손실 최소화

요약본 1: [첨부]
요약본 2: [첨부]
참고용 녹취록 원문: [첨부]

예시: 요약본 1 일부

**AI 모델 발전**
- 최근 몇 년간 급격한 성능 향상
- 다양한 분야에서 활용

예시: 요약본 2 일부 (같은 부분)

**언어 모델 발전 현황**
- 2017년 트랜스포머 등장 이후 빠른 발전
- ChatGPT-4, 클로드 등이 글쓰기와 코딩에서 높은 성능
- Hugging Face의 텍스트 생성 모델이 1년간 2,800배 증가

예시: 위의 두 요약본 통합 결과 일부

**언어 모델 발전 현황**
- 2017년 트랜스포머 등장 이후 급격한 성능 향상
- ChatGPT-4, 클로드 등 주요 모델이 글쓰기와 코딩에서 높은 성능 달성
- Hugging Face의 텍스트 생성 모델이 1년 사이 2,800배 이상 증가하며 AI 기술의 폭발적 확산 입증
- 번역, 요약, 분석 등 다양한 분야에서 실용적 활용

💭 기준/규칙은 정하기 나름인데, 이번 사례의 경우 양쪽 모두 언급한 내용은 핵심으로 간주하고, 한쪽에서만 언급한 내용은 원본을 확인 후 판단하게끔 프롬프트를 설계했습니다.

한 치의 실수도 용납할 수 없는 자료라든지 그 외 다양한 사유로 필요한 경우, 이처럼 LLM에게 지시하지 말고 사람이 직접 (한 땀 한 땀💦) 대조하며 취합하는 편이 더 나을 수도 있습니다.


4단계: 완성 - 최종 양식으로🔗

이제 최종 취합 및 정제된 요약문을 확보했으니, 다음으로 1단계에서 분석 및 정리한 양식 및 지침에 따라 최종 요약문을 정리하는 작업만 남았습니다. 이 단계에서 실질적인 '요약'을 하게 된다고 이해하면 됩니다.

특히, 중간 요약본까지 시간의 흐름에 따라 전개되는 내용을 최종 요약문의 형식에 맞춰 '논리적 재구성'을 하는 것도 이번 단계의 핵심 목표인데, 예를 들면 다음과 같은 식입니다. (실제 녹취록 원문의 내용을 함축한 예시)

중간 요약본의 시간 순서 (A→B→C→D)

A: (도입부) AI 기술이 어린이도 쉽게 사용하게 됨
B: (문제 제기) AI 보안 위협이 증가하고 있음
C: (상세 설명) 프롬프트 인젝션 등 구체적 공격 사례
D: (해결책/결론) 방어 기술과 대응 방안 필요

최종 요약본의 논리적 흐름 (재배치)

핵심 내용: (D부분/결론) AI 보안 위협에 체계적 대응 필요
서론: (A+B/배경) 기술 대중화와 함께 위협 증가
본론: (C+D/제안) 방어 기술 도입
결론: (C+D/효과) 어떤 공격을 막을 수 있는지
시사점: (요약) 선제적 보안 대책 필요

참고: 실제 적용 사례🔗

원본 녹취록 일부(참고)녹취록 원문

그래서 이제 먼저 제가 항상 요즘에 이 사진으로 시작을 하는데요.
이제 제 아들이랑 딸이거든요. 이제 2학년이고 4학년입니다.
근데 최근 한 6개월 정도 전쯤에 이제 지브리풍 사진 만드는 게 되게 유행했었잖아요.
그래서 제가 이제 어느 날 이제 주말에 이제 자고 일어나서 이제 봤더니 애들이 제 아이패드를 가지고 막 놀고 있더라고요...

2단계(중간 요약) 결과 일부

**AI 기술의 일상 침투**
- 화자의 초등학생 자녀들(2학년, 4학년)이 지브리풍 AI 이미지 생성 도구를 자연스럽게 사용
- 어린 아이들도 AI를 일상적으로 활용하는 시대 도래
- 이에 따라 AI 보안과 딥페이크 등 AI 기반 허위조작 정보 대응 필요성 제기

4단계(최종) 결과 일부(참고)전체 결과 PDF

(... 이하 생략)


참고: 실무 활용 시 주의 사항🔗

마지막으로, 긴 텍스트를 다룰 때 자주 발생하는 실패 유형과 대응책을 정리해보면 다음과 같습니다.

* AI 생성 이미지 with Nano Banana Pro

⛔ 주의 1: 한 번에 너무 많이 압축하지 마세요

  • 발생할 수 있는 문제: 중간 요약 단계에서 정보를 과하게 버리면, 이후 단계에서 무슨 수를 써도 되살릴 수 없습니다. 결과적으로 형식은 그럴듯해 보이지만 핵심 맥락이 훼손된 '빈 껍데기' 요약문이 될 위험이 큽니다.
  • 해결 방안: 다소 번거롭더라도 단계적으로 줄여나가는 것이 핵심입니다. 목표와 주안점을 세분화하여 조금씩 압축해야 맥락을 안정적으로 유지할 수 있습니다.

⛔ 주의 2: 섣불리 순서를 섞지 마세요

  • 발생할 수 있는 문제: 구어체를 문어체로 정제하는 작업과, 시간순 내용을 논리적 흐름으로 재배치하는 작업을 동시에 하면 오류가 누적됩니다. LLM이 두 가지 과부하로 인해 정보를 누락하거나 맥락을 왜곡할 가능성이 높아집니다.
  • 해결 방안: 재구조화가 필요 없는 '정리' 단계에서는 원문의 시간 순서/흐름을 최대한 유지하는 게 좋습니다. 논리적 재배치는 별도의 단계로 분리하여 수행하는 것이 가장 안전합니다.

⛔ 주의 3: 원문에 없는 내용을 경계하세요 (추가 해석 금지)

  • 발생할 수 있는 문제: 명확한 지침을 주더라도 LLM이 내용을 임의로 추론하거나, 원본에 없던 내용을 지어내는(환각) 경우가 발생할 수 있습니다.
  • 해결 방안: 중간 단계마다, 그리고 최종 단계에서 적어도 한 번 이상 사실 확인(Fact Check) 과정을 거쳐야 합니다. 프롬프트에 "반드시 원본 녹취록에 명시된 내용만 사용할 것"을 강조하여 제약을 거는 등 적절한 안전장치를 고려해야 합니다.

⛔ 주의 4: 프롬프트를 과하게 복잡하게 만들지 마세요

  • 발생할 수 있는 문제: 한 번에 완벽한 결과를 얻고자 지침을 지나치게 길고 복잡하게 작성하면, 오히려 LLM이 지침을 누락할 확률이 높아집니다. 무엇이 무시되었는지 파악하기도 어렵습니다.
  • 해결 방안: 욕심을 버리고 각 단계별 핵심 목표에만 집중합니다. 단순하고 명확한 프롬프트가 복잡하고 완벽해 보이는 프롬프트보다 실제로는 더 좋은 결과를 내는 경우가 많습니다.