50,000개 웹사이트, 10,000시간:
스키밍 AI 이야기

매일 50,000개의 웹사이트에 새로운 정보가 게시되고, 10,000시간의 연습 끝에 저는 이를 채굴하는 전문가가 되었습니다. Skim AI의 목표는 무엇인가요? 연구자들이 정보에 입각한 의사 결정을 더 빨리 내릴 수 있도록 돕는 것입니다.

저는 다양한 산업과 시장에 스며든 행동 및 지정학적 트렌드의 변화를 감지하기 위해 6년 이상 수백 개의 출판물에서 기사를 읽었습니다. 그 기간 동안 저는 매우 길지만 잘 연구된 뉴스와 잡지 기사 속에 가치 있는 데이터가 숨겨져 있다는 생각과 이를 빠르게 식별하는 방법에 매료되었습니다. 한 분야의 전문가가 되려면 1만 시간이 걸린다는 말이 있듯이, 거시경제 자문위원으로 몇 년을 일한 끝에 저는 방대한 기사에서 가치 있는 데이터 포인트를 빠르게 찾아내고 추출하는 전문가가 되었습니다.

어떻게요? 저는 중요한 데이터 포인트가 포함된 문장의 단어와 구조에서 패턴을 발견했고, 이러한 직감을 통해 뉴스에서 작동하는 데이터 추출 알고리즘을 구축하게 되었습니다.

우리는 정보 과부하의 시대에 살고 있습니다. 이는 의사 결정 마비로 이어지고, 결국 시간 제약이 있고 동기를 알 수 없는 '전문가'에게 의사 결정을 아웃소싱하게 됩니다. 부적절한 리서치 도구로 인한 의사 결정의 아웃소싱은 항상 저를 짜증나게 하는 부분입니다. 의사 결정을 개선하고 '전문가' 또는 정책 결정자에게 책임을 묻는 방법은 서면 텍스트에서 모든 주제에 대한 데이터를 즉시 추출할 수 있는 도구를 만드는 것입니다. 신호 검색기라고 할 수 있죠. 이것이 바로 2017년 Skim AI가 설립된 이래로 우리가 제공하고자 했던 것입니다.

매일 5만 개의 새로운 웹사이트가 뉴스와 기타 데이터를 포함하는 새로운 웹사이트를 게시합니다.

감히 일반화하자면, 무엇이든 조사하는 사람은 누구나 가장 영향력 있는 정보를 찾고 경쟁자보다 먼저 정보를 찾으려는 비슷한 동기를 가지고 있다고 생각합니다. 따라서 어디서, 어떻게, 무엇을 찾아야 하는지 알아야 합니다. 하지만 전문가가 10,000시간을 연구해도 매일 쏟아져 나오는 데이터의 양을 따라잡는다는 것은 불가능합니다. 저는 개인이 '인터넷 규모'의 정보를 처리하고, 필요한 것을 찾고, 더 나은 결정을 내리고, 내일의 잠재력을 파악하는 데 도움이 되는 무언가를 오늘 만들고 싶었습니다.

18개월에 걸쳐 비즈니스 파트너와 저는 언어 패턴을 기반으로 서면 텍스트에서 사실을 감지하는 알고리즘을 구축하고 훈련했습니다. 목표는 매일 인터넷에 게시되는 방대한 양의 정보를 스크랩하여 지식 근로자가 필요한 정보를 더 빨리 찾을 수 있도록 돕는 도구를 만드는 것이었습니다.

오늘날 Skim AI는 머신 러닝과 자연어 처리 도구에 대한 접근성을 대중화하여 미래의 트렌드를 지금 바로 발견할 수 있도록 하고 있습니다. 머신 러닝 측면은 미래의 업무용 도구가 사용자의 요구에 따라 지속적으로 개선되고 기능이 확장될 것이며, 우리가 하는 모든 일은 사용자의 연구 노력을 지원하기 위한 것임을 의미합니다. 사례를 준비하는 MBA 학생부터 잠재 고객을 추적하는 투자 은행가까지, Skim AI는 신뢰할 수 있는 리서치 비서가 될 수 있도록 만들어졌습니다. 

수백 명의 사람들이 더 나은 의사 결정을 더 빠르게 내리는 데 Skim AI를 사용하는 이유를 알아보세요.

ko_KR한국어