library(quanteda)
library(stringr)
library(dplyr)
library(lubridate)
library(topicmodels)

コーパスのダウンロード

本例で用いる衆議院外務委員会の議事録は,1947年から2017年の間のすべての発言を含んでいる.このコーパスはquanteda.corporaを用いてダウンロードできる.

devtools::install_github("quanteda/quanteda.corpora")
full_corp <- quanteda.corpora::download('data_corpus_foreignaffairscommittee')

コーパスの作成手順

読者が独自のコーパスを作成できるように,本例のコーパスを作成した手順を以下に示してある.

議事録をダウンロード

国会会議録のダウンロードにはkaigirokuパッケージを使う.APIが応答しない場合に途中からダウンロードをやり直す必要がないように,年ごとにファイルに保存し,それらを最後に連結すると良い.

devtools::install_github("amatsuo/kaigiroku")
library(kaigiroku)

# 年ごとに議事録をダウンロード
folder_download <- "~/temp/download"
committee <- "外務"

for (year in 1947:2017) {
  cat(as.character(Sys.time()), year, committee, "\n")
  temp <- get_meeting(meetingName = committee, year = year)
  if (is.null(temp)) next
  saveRDS(temp, file = sprintf("%s/%s_%s.rds", folder_download, year, committee))
  Sys.sleep(10)
}

# ファイルを結合して保存
file_all <- list.files(folder_download, full = TRUE, pattern = ".rds")
speech <- lapply(as.list(file_all), readRDS) %>% bind_rows()
saveRDS(speech, file = paste0(folder_download, "committee_speeches.rds"))

コーパスの作成

load("temp/committee_speeches.rda")
full_corp <- corpus(foreign_affairs_committee_speeches, text_field = 'speech')

議事録の数と期間を取得

ndoc(full_corp)
## [1] 287298
range(docvars(full_corp, 'date'))
## [1] "1947-06-30" "2017-11-29"

前処理

発言者のいないレコード(典型的には各議事録の0番目の出席者,議題等の部分)を取り除く,また,各発言の冒頭は発言者の氏名と役職名なので,その部分から役職名を取り出して新しいdocvarを作る.

full_corp <- corpus_subset(full_corp, speaker != "")

## capacity変数の作成
capacity <- full_corp %>%
  str_sub(1, 20) %>%
  str_replace_all("\\s+.+|\n", "") %>% # 冒頭の名前部分の取り出し
  str_replace( "^.+?(参事|政府特別補佐人|内閣官房|会計検査院|最高裁判所長官代理者|主査|議員|副?大臣|副?議長|委員|参考人|分科員|公述人|君((.+))?$)", "\\1") %>% # 冒頭の○から,名前部分までを消去
  str_replace("(.+)", "")
capacity <- str_replace(capacity, "^○.+", "Other") # マイナーな役職名は一括して"Other"に
knitr::kable(as.data.frame(table(capacity)))
capacity Freq
Other 17174
会計検査院当局者 47
会計検査院説明員 5
会計検査院長 7
公述人 70
内閣官房副長官 260
副大臣 3020
参事 8
参考人 11600
参考人(通訳つき 8
参考人(通訳なし 2
233
大臣 52850
大臣政務官 1135
委員 172692
委員外務大臣 1
委員大臣 2
委員長 24685
委員長代理 1361
政府特別補佐人 80
議員 27
docvars(full_corp, 'capacity') <- capacity

1991から2010年までの期間の議事録を選択

docvars(full_corp, "year") <- docvars(full_corp, "date") %>% year() %>% as.numeric()
corp <- corpus_subset(full_corp, 1991 <= year & year <= 2010)

ndoc(corp)
## [1] 62670

委員,大臣,副大臣の発言を選択

corp <- corpus_subset(corp, capacity %in% c("委員", "大臣", "副大臣"))
ndoc(corp)
## [1] 46890

トークン化

日本語の分析では,形態素解析ツールを用いて分かち書きを行うことが多いが,quantedatokens()は,ICUで定義された規則に従って文を語に分割することができる.さらに,漢字やカタカナの連続的共起をtextstat_collocations()を用いて抽出し,tokens_compound()によって統計的に優位な組み合わせを結合すると,より質の高いトークン化を実現できる.textstat_collocations()を用いる場合は,事前にtokens_select()と正規表現で,対象とする語だけを選択する.この際,padding = TRUEとし,語の間の距離が維持されるように注意する

toks <- tokens(corp)
toks <- tokens_select(toks, '^[0-9ぁ-んァ-ヶー一-龠]+$', valuetype = 'regex', padding = TRUE)
toks <- tokens_remove(toks, c('御', '君'), padding = TRUE)

min_count <- 10

# 漢字
kanji_col <- tokens_select(toks, '^[一-龠]+$', valuetype = 'regex', padding = TRUE) %>% 
             textstat_collocations(min_count = min_count)
toks <- tokens_compound(toks, kanji_col[kanji_col$z > 3,], concatenator = '')

# カタカナ
kana_col <- tokens_select(toks, '^[ァ-ヶー]+$', valuetype = 'regex', padding = TRUE) %>% 
            textstat_collocations(min_count = min_count)
toks <- tokens_compound(toks, kana_col[kana_col$z > 3,], concatenator = '')

# 漢字,カタカナおよび数字
any_col <- tokens_select(toks, '^[0-9ァ-ヶー一-龠]+$', valuetype = 'regex', padding = TRUE) %>% 
           textstat_collocations(min_count = min_count)
toks <- tokens_compound(toks, any_col[any_col$z > 3,], concatenator = '')

文書行列の作成

dfm()によって文書行列を作成した後でも,dfm_*()と命名された関数を用いると分析に必要な文書の特徴を自由に選択できる.ここでは,平仮名のみもしくは一語のみから構成されたトークンをdfm_remove()によって,頻度が極端に低い語もしくは高い語をdfm_trim()によって削除している.

speech_dfm <- 
    dfm(toks, remove = '') %>% 
    dfm_remove('^[ぁ-ん]+$', valuetype = 'regex', min_nchar = 2) %>% 
    dfm_trim(min_count = 0.50, max_count = 0.99)

分析

相対頻度分析

textstat_keyness()は語の頻度を文書のグループ間で比較し,統計的に有意に頻度が高いものを選択する.ここでは,同時多発テロが発生した2001年以降に頻度が高くなった30語を示してある.

key <- textstat_keyness(speech_dfm, docvars(speech_dfm, 'year') >= 2001)
head(key, 20) %>% knitr::kable()
feature chi2 p n_target n_reference
武正委員 462.8377 0 662 0
東門委員 444.3020 0 647 3
笠井委員 428.5607 0 613 0
アフガニスタン 360.5114 0 582 18
グアム 350.8252 0 561 16
防衛省 340.4334 0 487 0
小泉総理 339.0347 0 485 0
近藤 333.5463 0 481 1
中曽根国務大臣 328.5447 0 470 0
町村国務大臣 323.6495 0 463 0
赤嶺委員 318.2912 0 500 12
民主党 298.5746 0 678 77
岡田国務大臣 298.4750 0 427 0
軽減 298.3294 0 666 73
首藤委員 290.8063 0 435 5
政務官 290.3048 0 438 6
小野寺委員 283.7906 0 406 0
密約 268.3811 0 463 22
麻生大臣 260.7162 0 373 0
財務省 219.5756 0 318 1

上の表では,委員会出席者の名前が多く含まれるので,それらを取り除くと議論の主題が明確になる.

key <- key[!str_detect(key$feature, regex('委員|大臣')),]
head(key, 20) %>% knitr::kable()
feature chi2 p n_target n_reference
4 アフガニスタン 360.5114 0 582 18
5 グアム 350.8252 0 561 16
6 防衛省 340.4334 0 487 0
7 小泉総理 339.0347 0 485 0
8 近藤 333.5463 0 481 1
12 民主党 298.5746 0 678 77
14 軽減 298.3294 0 666 73
16 政務官 290.3048 0 438 6
18 密約 268.3811 0 463 22
20 財務省 219.5756 0 318 1
23 ロードマップ 207.6912 0 301 1
27 米軍再編 199.1912 0 285 0
28 普天間 198.0101 0 514 74
29 山口 185.5234 0 439 54
30 負担軽減 184.2363 0 275 3
31 辺野古 183.5377 0 274 3
32 日米同盟 182.6797 0 376 34
33 金子 180.4289 0 262 1
34 六カ国協議 175.5359 0 255 1
37 六者協議 161.3497 0 281 14

共起ネットワーク分析

fcm()によって作成した共起行列に対して,textplot_network()を用いると語の関係が視覚化でき,文書の内容の全体像を容易に把握できる.

feat <- head(key$feature, 50)
speech_fcm <- dfm_select(speech_dfm, feat) %>% fcm()
size <- sqrt(rowSums(speech_fcm))
textplot_network(speech_fcm, min_freq = 0.85, edge_alpha = 0.9, vertex_size = size / max(size) * 3)

トピックモデル

quantedaのdfmをconvert()で変換し,topicmodelsをパッケージを用いて潜在的な話題を推定する.

lda <- LDA(convert(speech_dfm, to = "topicmodels"), k = 10)
get_terms(lda, 10) %>% knitr::kable()
Topic 1 Topic 2 Topic 3 Topic 4 Topic 5 Topic 6 Topic 7 Topic 8 Topic 9 Topic 10
及び 言葉 発言 交渉 国民 受け 大きな お答え 事実 重要
締結 沖縄 言う 大きな 時間 大きな 国民 説明 合意 発言
に関する 特に 現在 調査 解決 今まで お話 確認 十分 説明
協定 外交 事実 大事 大事 現在 当然 重要 お願い 沖縄
承認 部分 感じ 言う 当然 国連 国連 部分 特に 世界
次第 考え方 韓国 時間 お話 実は 考え方 検討 国連 承知
求める お願い 受け 承知 説明 全く 確認 その後 当然 特に
改正 説明 交渉 外交 アジア 発言 言葉 内容 お話 報道
目的 判断 沖縄 部分 基本的 大事 現在 全く 言う 判断
交渉 お話 検討 同じ 全く 重要 意見 当然 お答え 言う
get_topics(lda) %>% table() %>% barplot(xlab = 'Topic', ylab = "Frequency")