뉴스 기사가 빅데이터가 되고 있다. 이는 저널리즘 연구에서 연구방법을 빅데이터 분석과 접목해야 하며, 빅데이터 분석에 의해 이론적 함의를 도출해야 할 필요성을 시사한다. 본 연구에서는 빅데이터화한 기사의 분석방법으로서 사회연결망분석을 활용한 뉴스정보원연결망분석(NSNA)을 제안하고 이를 프로그램으로 제작한 뒤 시행연구를 실시했다. 뉴스정보원연결망분석은 비정형데이터인 기사를 정보원과 인용문을 중심으로 정형화한 뒤, 연결정도중앙성 값에 따라 가중치를 부여하여, 주요 정보원과 주요 의제를 보여주며, 소속별로 서로 다른 주장들도 대비하여 보여줄 수 있다. 본 연구에서는 시행연구로 카인즈에서 20개 매체의 6개월 분량 기사를 크롤링한 뒤 ‘뉴타운’이라는 검색어로 나온 2,239개 기사를 분석했다. 그 결과 전통적인 정보원 연구에서 주목한 공식 정보원이 아닌, 시장의 경계에서 컨설턴트처럼 경제체계와 생활세계를 중개하는 정보원이 논쟁에 중요한 역할을 한다는 점을 알 수 있었다.
News became big data. In this vein, journalism researchers need to deduce theories from big data analytics. This study suggests news source network analysis (NSNA) as big data analytics of news articles. The prototype NSNA program automatically structuralizes and visualizes a huge number of articles based on news sources and their quotes weighted by degree centrality, and compares news sources’ opinions based on their organizations. This study analyzed 2,239 news articles for six months about a key word ‘New Town’ crawled from 20 media as a pilot study. The result showed that, in some topics like ‘New Town’, news sources like consultants or critics could be more important than official news sources that traditional media bias researches had emphasized on.
(0)
(0)