자동화 & AI

코딩 없이 직접 자동화 유튜브 요약 AI 만들기

유튜브 많이 보시죠? 봐야할 영상은 많고 시간은 없고. 원하는 시간에 맞춰 내가 보는 영상들을 요약해주는 서비스! 직접 만들어 보시는건 어떤가요? Make는 다양한 앱과 서비스를 연결하여 자동화 워크플로우를 만들 수 있는 강력한 도구입니다. 이를 활용하여 유튜브 요약 AI를 만들고 자동화하는 방법을 알아보겠습니다.

1. 유튜브 요약 AI 생성 위한 필요한 도구 및 서비스

  • Make 계정: 자동화 워크플로우를 구축하고 관리하기 위한 핵심 플랫폼. Make는 다양한 앱과 서비스를 연결하여 복잡한 자동화 작업을 코딩 없이 구현할 수 있게 해줍니다.
  • RSS 피드 생성 서비스: 유튜브 채널의 최신 업데이트 정보를 실시간으로 가져오기 위해 필요합니다. 다음 중 하나를 선택하여 사용할 수 있습니다:
    • RSS.app: 사용자 친화적인 인터페이스로 다양한 소스에서 RSS 피드를 쉽게 생성할 수 있습니다.
    • Feedly: 콘텐츠 큐레이션 및 RSS 관리에 특화된 서비스로, 유튜브 채널 모니터링에 유용합니다.
    • Fetchrss: 유튜브를 포함한 다양한 웹사이트에서 RSS 피드를 생성할 수 있는 강력한 도구입니다.
  • Apify: YouTube Scraper를 통해 자막 데이터를 효율적으로 추출합니다. Apify의 YouTube Scraper는 동영상의 자막, 설명, 댓글 등 다양한 메타데이터를 자동으로 수집할 수 있어 요약 작업에 필수적인 정보를 제공합니다.
  • 생성형 AI API (예: Claude, GPT): 추출된 자막 데이터를 바탕으로 고품질의 요약문을 생성합니다. 이러한 AI 모델들은 자연어 처리 능력이 뛰어나 콘텐츠의 핵심을 정확하게 파악하고 간결하게 요약할 수 있습니다.
  • Airtable , 노션 , 구글 시트: 생성된 요약 결과물을 체계적으로 저장하고 관리합니다. 주로 쓰는 플랫폼을 활용하여 요약된 콘텐츠를 카테고리별로 정리합니다. 이후 필요에 따라 쉽게 검색하고 공유할 수 있습니다.

2. 유튜브 요약 AI 워크플로우 구성

유튜브 요약 자동화 워크플로우

2.1 RSS 피드 생성 및 활용

선별된 유튜브 채널들의 정보를 종합하여 맞춤형 RSS 피드를 구축합니다. 이렇게 생성된 RSS URL을 통해 각 채널의 최신 동영상 정보를 실시간으로 수집합니다. 이를 자동화 워크플로우의 첫 단계로 활용합니다. 이 과정을 통해 관심 있는 콘텐츠의 업데이트를 신속하게 파악합니다. 그리고 후속 처리를 위한 기초 데이터를 효율적으로 확보할 수 있습니다.

2.2 동영상 정보 추출 및 분석

Apify의 YouTube Scraper를 활용하여 동영상의 풍부한 메타데이터를 체계적으로 수집합니다. 이 과정에서 획득하는 정보는 단순히 제목, 설명, 자막에 국한되지 않습니다. 태그, 카테고리, 조회수, 좋아요 수 등의 부가적인 데이터도 함께 추출이 가능합니다. 다만 요약 자동화 작업을 위한 우리의 주요 수집 데이터는 자막 정보입니다. 자막 데이터는 동영상의 핵심 내용을 텍스트 형태로 제공하여, 후속 단계인 AI 기반 자동 요약 과정의 핵심 입력 자료로 활용됩니다. 이를 통해 영상의 본질적인 내용을 정확하게 파악하고, 효과적인 요약을 생성할 수 있는 기반을 마련합니다.

2.3 AI API 연동 및 최적화

추출한 정보를 OpenAI의 GPT 또는 Anthropic의 Claude 모델에 전송하여 요약을 생성합니다. 이 과정에서 AI 모델에 최적화된 프롬프트 엔지니어링을 적용하여 요약의 품질과 관련성을 높입니다. 필요에 따라 여러 AI 모델을 순차적으로 활용하여 요약의 정확도와 깊이를 개선할 수도 있습니다.

2.4 다각화된 결과 저장 및 지능형 알림 시스템

생성된 요약을 다양한 형태로 저장하고 관리합니다. 예를 들어, 노션 페이지에 구조화된 데이터베이스 형태로 저장하거나, 이메일로 자동 발송하거나, Slack 채널에 공유할 수 있습니다. 또한, 요약의 중요도나 사용자 선호도에 따라 맞춤형 알림 시스템을 구축하여 효율적인 정보 소비를 돕습니다.

3. 세부 설정 방법

Make 계정을 생성하고 로그인합니다. 대시보드에서 ‘Scenarios’ 탭으로 이동한 후, 우측 상단의 ‘Create a new scenario’ 버튼을 클릭하여 새로운 자동화 워크플로우를 시작합니다. 이 과정에서 원하는 시나리오 이름을 지정하고, 필요에 따라 폴더 구조를 활용하여 체계적으로 관리할 수 있습니다.


원하는 채널 주소를 넣습니다. 이번 글에서는 제가 좋아하는 슈카월드 채널을 활용해보겠습니다.
그럼 이렇게 RSS 주소가 생성됩니다.

다음으로, FetchRSS 웹사이트에 접속합니다. (RSS 주소를 생성할 수 있는 다른 플랫폼을 사용해도 무방합니다)

홈페이지의 중앙에 위치한 검색창에 요약하고자 하는 유튜브 채널의 주소를 입력합니다. 채널이 성공적으로 인식되면, 해당 채널의 RSS 피드 URL이 생성됩니다. 이 URL을 복사해 둡니다. 참고로, 일부 고급 RSS 서비스를 이용하면 여러 유튜브 채널의 피드를 하나로 통합하여 단일 URL로 관리할 수 있습니다. 다만, 이러한 고급 기능은 유료로 제공되는 경우가 많으므로, 사용 전 비용 대비 효용을 신중히 검토해야 합니다.

Make 플랫폼으로 돌아와 새로 생성한 시나리오를 엽니다. 워크플로우의 첫 단계로 새 모듈을 추가하고, 검색창에서 ‘RSS’를 입력하여 RSS 모듈을 선택합니다. 이 모듈은 지정된 RSS 피드에서 주기적으로 새로운 콘텐츠를 확인하고 가져오는 역할을 합니다.

RSS 모듈 설정 화면에서 ‘URL’ 필드를 찾아 이전에 FetchRSS에서 복사한 RSS 피드 주소를 정확히 붙여넣습니다. 필요에 따라 업데이트 주기, 가져올 항목 수 등의 추가 설정을 조정하여 워크플로우의 효율성을 최적화할 수 있습니다.


Store에서 youtube scraper를 검색합니다.

Apify로 이동하여 계정을 생성합니다. 로그인 후, Store 섹션으로 이동하여 YouTube Scraper를 검색합니다. 이 도구는 주로 왼쪽 상단에 위치하여 쉽게 찾을 수 있습니다. ‘Go to actor’ 버튼을 클릭하여 YouTube Scraper를 활성화합니다. 입력 설정 화면에서 다음과 같이 구성합니다:

  • ‘Download subtitles’ 옵션을 체크하여 자막 다운로드를 활성화합니다.
  • ‘Subtitle format’ 드롭다운 메뉴에서 ‘plaintext’를 선택하여 텍스트 형식의 자막을 받습니다.
  • ‘JSON’ 버튼을 클릭하여 설정을 JSON 형식으로 내보냅니다.

이렇게 설정하면 아래와 같은 JSON 구조가 생성됩니다. 이 구조는 YouTube Scraper의 동작을 정의하며, 필요에 따라 추가적인 매개변수를 조정할 수 있습니다:

인풋값 입력하는 상단부분에서 JSON을 클릭하면 JSON 값을 확인할 수 있습니다.


actort에서 youtube scraper 선택

Make로 돌아와 새로운 모듈을 생성하고 이전 모듈과 연결합니다. 그 다음, Apify Run an Actor 모듈을 추가합니다. Apify 계정과 연동한 후, Actor 목록에서 YouTube Scraper를 선택합니다. 연동이 성공적으로 이루어지면 YouTube Scraper가 자동으로 목록에 표시됩니다.

Input JSON 필드에 앞서 생성한 JSON 구조를 붙여넣습니다. URL 변수 설정에서는 RSS 모듈에서 가져온 URL을 지정합니다. 이렇게 설정하면 시스템이 자동으로 유튜브 영상 URL을 추출하고, 해당 영상의 자막 데이터를 수집합니다. 이 과정을 통해 유튜브 콘텐츠의 핵심 정보를 효율적으로 추출할 수 있습니다.


새로운 모듈을 추가하기 위해 Tools 섹션의 Sleep 모듈을 선택합니다. 이 모듈의 설정에서 30초의 딜레이 시간을 지정합니다. 이는 의도적인 조치로, 스크래핑 작업에 충분한 시간을 할당하여 데이터 수집의 안정성과 신뢰성을 높이는 역할을 합니다. 특히 대량의 데이터를 처리하거나 외부 API에 과도한 부하를 주지 않기 위해 이러한 딜레이 설정이 중요합니다.


Apify Get Dataset Items 모듈을 추가합니다. 이 모듈은 이전 단계에서 수집한 자막 데이터를 가져오는 역할을 합니다. 모듈 설정 시 다음 단계를 따릅니다:

  • Dataset ID 필드: 오른쪽 클릭 후 Apify Run an Actor 모듈의 defaultDatasetId를 선택합니다.
  • Data transformation: ‘Clean’으로 설정하여 데이터를 정제합니다.
  • Format: ‘JSON’을 선택하여 구조화된 데이터 형식으로 가져옵니다.
  • Limit: ‘100’으로 설정하여 처리할 데이터의 양을 제한합니다.

이러한 설정을 통해 효율적으로 자막 데이터를 추출하고 후속 처리를 위한 준비를 완료합니다.


다음으로, AI 모듈을 추가하여 자동 요약 기능을 구현합니다. 본 예시에서는 Anthropic의 Claude AI를 사용하겠습니다. Claude API를 사용하기 위해서는 다음 단계를 따라야 합니다:

  • Anthropic 웹사이트에서 개발자 계정을 생성합니다.
  • API 키를 발급받습니다. 이 키는 보안을 위해 안전하게 보관해야 합니다.
  • API 사용을 위한 크레딧을 구매하거나 무료 크레딧을 활성화합니다.

API 키를 발급받은 후, Make 플랫폼으로 돌아와 Claude AI 모듈을 워크플로우에 추가하고 다음과 같이 설정합니다:

  • 모듈 검색창에서 ‘Claude’ 또는 ‘Anthropic’을 입력하여 해당 모듈을 찾습니다.
  • 모듈 설정에서 ‘API Key’ 필드에 발급받은 키를 입력합니다.

 

프롬프트를 어떻게 쓰냐에 따라 결과물의 퀄리티가 많이 달라집니다.

모델 설정에서는 최신 버전인 Claude 3.5를 선택합니다. 토큰 수는 생성되는 요약문의 길이와 상세도에 직접적인 영향을 미치는데, 이 예시에서는 충분히 상세한 요약을 위해 5000으로 설정했습니다. 다음으로, AI의 역할과 입력 타입을 각각 “유저”와 “텍스트”로 지정합니다. 이는 AI가 사용자 입력을 어떻게 해석하고 처리할지를 결정하는 중요한 파라미터입니다. text 필드에는 요약본 생성을 위한 구체적인 지시사항, 즉 프롬프트를 작성합니다. 이 프롬프트는 AI에게 어떤 방식으로 요약을 수행할지, 어떤 정보를 중점적으로 다룰지 등을 명확히 안내하는 역할을 합니다. 스크린샷의 프롬프트는 최소한의 내용만 담았습니다. 결과물 퀄리티를 위해 원하는 방식으로 프롬프트를 상세히 작성해주세요. (AI 프롬프트 작성 기술 방법 : 자동화 작업을 위한 핵심 가이드->)

AI에게 실제로 요약할 자막 데이터를 제공하기 위해서는 이전 단계인 Apify Get Dataset Items 모듈의 출력 결과를 활용합니다. 구체적으로, 해당 모듈의 subtitles → plaintext 항목을 선택하여 AI 모듈의 입력으로 연결합니다. 이렇게 함으로써 스크래핑된 자막 데이터가 자동으로 AI 요약 시스템에 입력되어 처리됩니다.


마지막 단계는 요약 결과물을 효과적으로 저장하고 활용하는 것입니다. 결과물을 받아볼 수 있는 다양한 옵션이 있습니다. 노션, 구글 시트, 이메일, 에어테이블, 디스코드, 텔레그램 등 사용자의 선호도와 필요에 따라 적합한 플랫폼을 선택할 수 있습니다. 각 플랫폼마다 연동 과정은 유사하지만, 이 예시에서는 구글 시트를 활용하여 결과를 저장하는 방법을 상세히 설명하겠습니다.

구글 시트에 원하는 형태로 컬럼을 만듭니다.

구글 시트와의 연동을 위해 Google Sheets Add a Row 모듈을 워크플로우에 추가합니다. 연동 절차를 완료한 후, 다음과 같이 설정을 진행합니다:

  • Search Method를 ‘Search by path’로 설정합니다. 이 옵션을 선택하면 시스템이 자동으로 사용자의 구글 드라이브 내 시트, 워크시트, 그리고 열 이름을 인식하여 불러옵니다.
  • 구글 시트 내에 ‘자막요약본’이라는 새로운 열을 추가합니다. 이 열은 AI가 생성한 요약 내용을 저장하는 데 사용됩니다.
  • 모듈 설정에서 ‘자막요약본’ 열의 값으로 Text Response 또는 Content → Text를 선택합니다. 이는 AI 모듈에서 생성된 요약 텍스트를 해당 열에 자동으로 입력하도록 지정하는 것입니다.

이러한 설정을 통해 AI가 생성한 유튜브 동영상 요약본이 자동으로 구글 시트에 저장되어, 효율적인 정보 관리와 추후 분석이 가능해집니다. 필요에 따라 다른 플랫폼으로의 연동도 유사한 방식으로 구현할 수 있으며, 이를 통해 사용자의 워크플로우를 더욱 유연하고 효과적으로 만들 수 있습니다.


구글 시트에 저장된 요약 결과물

Make 플랫폼의 왼쪽 하단에 위치한 ‘Run once’ 버튼을 클릭하여 전체 워크플로우의 정상 작동 여부를 확인합니다. 이는 모든 모듈이 연결된 상태에서 전체 프로세스가 원활하게 진행되는지 테스트하는 중요한 단계입니다. 또한, 개별 모듈의 설정이 완료될 때마다 해당 모듈을 우클릭하여 나타나는 ‘Run this module only’ 옵션을 선택함으로써 각 모듈의 독립적인 기능을 검증할 수 있습니다. 이러한 단계별 테스트 과정은 전체 시스템의 안정성을 보장할 수 있습니다. 또한 잠재적인 오류를 조기에 발견하여 수정할 수 있는 기회를 제공합니다. 따라서 각 모듈의 개별 테스트부터 시작하여 최종적으로 전체 워크플로우의 통합 테스트를 수행하는 것이 권장됩니다. 이를 통해 시스템의 각 구성 요소가 의도한 대로 작동하며, 전체적인 프로세스가 원활하게 진행되는지 확실히 검증할 수 있습니다.

4. Make로 만든 유튜브 요약 자동화 시스템의 주요 장점과 효과

  • 코딩 지식 없이도 복잡한 자동화 구현 가능: 기술적 배경이 없는 사용자도 직관적인 인터페이스를 통해 고급 자동화 워크플로우를 구축할 수 있습니다.
  • 다양한 서비스와의 연동을 통한 확장성: 여러 플랫폼과 도구를 원활하게 통합하여 더욱 강력하고 유연한 시스템을 구축할 수 있습니다. 이는 향후 요구사항 변화에 따른 확장이 용이함을 의미합니다.
  • 가장 큰 장점은 자유로운 커스텀마이징입니다: 사용자의 특정 요구사항에 맞춰 워크플로우를 세밀하게 조정할 수 있습니다. 이를 통해 개인화된 솔루션 제작이 가능합니다. 이는 다양한 측면에서 유연성을 제공합니다.
    • 시간 기반 자동화: 특정 시간에만 자동화 작업이 작동하도록 설정하여 효율적인 리소스 관리가 가능합니다. 또는 원하는 시간에 결과물을 받아보도록 셋팅도 가능합니다.
    • 다중 채널 활용 가능: 작업 완료 후 개인 이메일, 디스코드, Slack 등 다양한 플랫폼으로 결과를 자동 전송할 수 있습니다.
    • 조건부 로직: 특정 조건이 충족될 때만 작업을 실행하거나, 결과에 따라 다른 액션을 취하도록 설정할 수 있습니다.
  • 실시간 업데이트 및 알림 기능: 새로운 콘텐츠가 업로드되면 즉시 처리됩니다. 이후 사용자에게 신속하게 전달됩니다. 이를 통해 정보의 시의성을 극대화하고 사용자의 정보 소비 효율을 높일 수 있습니다.
  • 시간과 리소스의 효율적 활용: 반복적이고 시간 소모적인 작업을 자동화함으로써, 사용자는 더 가치 있는 활동에 집중할 수 있습니다.

5. 주의사항 및 고려사항

  • API 사용량 및 비용 관리: 각 서비스의 API 사용 한도와 요금 체계를 주의 깊게 검토해야 합니다. 예상 사용량에 따른 비용을 미리 계산하여 예산을 효율적으로 관리해야 합니다. 특히 AI API의 경우, 요청 횟수와 토큰 사용량에 따라 비용이 크게 달라질 수 있으므로 주의가 필요합니다.
  • 개인정보 보호 및 저작권 준수: 유튜브 콘텐츠를 활용할 때는 저작권법을 철저히 준수해야 합니다. 요약 내용을 공개적으로 공유할 경우, 원작자의 권리를 존중하고 적절한 출처 표기를 해야 합니다. 따라서 개인적인 용도로만 만들고 사용하기를 권장합니다. 또한, 사용자 데이터를 다룰 때는 개인정보 보호법을 준수하여 데이터의 안전한 저장과 관리에 만전을 기해야 합니다.
  • 시스템 안정성 및 오류 처리: 자동화 워크플로우의 각 단계에서 발생할 수 있는 오류에 대비하여 적절한 예외 처리 및 오류 보고 메커니즘을 구현해야 합니다. 시스템의 안정적인 운영을 위해 정기적인 모니터링과 유지보수가 필요합니다.
  • 콘텐츠 품질 관리: AI가 생성한 요약의 정확성과 품질을 주기적으로 검토해야 합니다. 필요에 따라 프롬프트를 최적화하거나 AI 모델을 조정해야 합니다. 사용자 피드백을 적극적으로 수집하여 시스템을 지속적으로 개선하는 것이 중요합니다.

리치부스터

Recent Posts

인간 vs 자율주행차 대결, 시작도 못한 이유

최근 일본 스즈카 서킷에서 열릴 예정이었던 인간 운전자와 자율주행차의 레이스가 출발도 하기 전에 무산되는 일이…

9분 ago

대학 과제 AI 활용 부정행위 괜찮은걸까? 학위 취득 과정의 본질적 가치

대학가에 AI 부정행위 파문이 거세게 일고 있습니다. 절반 이상의 학생들이 과제 수행에 생성형 AI를 활용하고…

1주 ago

비트코인 10만불 넘었는데 사도 괜찮나? 마이크로스트래티지도 산다!

비트코인 10만달러를 넘어서면서 지금이라도 사야되나 고민하는 분들이 많을 것입니다. 이런분들에게 하나의 참고가 될 수 있는…

1주 ago

계속 오르는 환율! 환율이 오르면 발생하는 문제?

최근 원/달러 환율이 치솟으면서 1,450원을 향해 달려가고 있습니다. 나라가 뒤숭숭하면서 환율이 지속적으로 오르고 있는 안타까운…

2주 ago

계엄령 충격과 혼란 속 대한민국 경제 미래는

지난 12월 3일 밤, 대한민국은 전례 없는 혼란에 빠졌습니다. 윤석열 대통령의 갑작스러운 계엄령 선포로 온…

2주 ago

북한 해커, 전 직원 행세하며 5천만 달러 털어가다: DeFi 플랫폼 래디언트 캐피털 해

암호화폐 업계를 뒤흔든 대규모 해킹 사건이 또 다시 일어났습니다. 이번에는 분산형 금융(DeFi) 플랫폼 래디언트 캐피털(Radiant…

2주 ago