Albert Valdman賞

もう一ヶ月以上前のことになりますが、昨年SSLA誌に掲載された論文(L1 influence on the acquisition order of English grammatical morphemes: A learner corpus study)がAlbert Valdman Awardという賞を受賞しました。これはその年にSSLA誌に掲載された中で最も優れた論文に贈られる賞で、今年で設立三年目になるようです。受賞の旨はこちらに掲載され、私達のコメントがつい先日ここここに掲載されました。

受賞コメントやこちらのブログ記事にも書きましたが、私がSLAを初めて面白いと思ったのは学部の授業でNatural Orderについて学んだ時ですので、そのトピックで初めてのジャーナル論文を書き、その論文がSSLAから賞を頂くことになるとは、話として出来過ぎです。本賞受賞時が研究者としての最盛期だったと言われないように今後も精進していきます。

ところでこの賞、outstandingな論文に贈られると聞いていますが、具体的にはどのように評価しているのでしょう。SSLA(を含むCUPの全てのジャーナル?)では昨年あたりからAltmetricという論文のインパクト評価の指標がジャーナルの公式サイトに表示されるようになりましたが、これを見てみると確かに当該論文の値は相対的に高いです 1。ただし内訳を見てみると、その多くがツイッターでの言及で、仮にこういった値が影響するのであれば、掲載後に積極的に宣伝することも重要になるのだろうか、などと考えました。

Notes:

  1. 理由の一端は受賞後にブログやツイッターで取り上げられたからですが、受賞前も割と高い値でした
Standard

タスク効果論文

Language Learning誌のEarly Viewに下記の共著論文が掲載されました。

Alexopoulou, T., Michel, M., Murakami, A., & Meurers, D. (2017). Task effects on linguistic complexity and accuracy: A large-scale learner corpus analysis employing Natural Language Processing techniques. Language Learning. Advance online publication. doi: 10.1111/lang.1223 [リンク]

様々な言語的複雑性や正確性の指標の横断的発達並びにそれらへのタスクやタスクタイプの効果を学習者コーパス(EFCAMDAT)に基づき分析した実証研究で、数ヶ月後に出るLanguage Learning誌の特集号(Language learning research at the intersection of experimental, corpus-based and computational methods: Evidence and interpretation)に載録されます。

学習者コーパス研究ではタスク効果に頻繁に言及されるものの、それを中心に据えた論文はあまり(全く?)ありませんでした。SLAでのSkehanやRobinsonの枠組みを用いるには典型的な学習者コーパスのデータは粗すぎるというのが私のこれまでの印象でしたので、今回、タスクの特徴付けを事後的に行ってもある程度は予想に沿った産出になるという結果は面白いと思います。

また本プロジェクトは私がケンブリッジ大学に着任直後(2015年11月頃)に始まり、離任直前にオンラインに公開されました。これがケンブリッジでの期間の主成果というわけではありませんが、この1年半弱はコンスタントにこの論文関係のことを行っていたので、将来ケンブリッジでの任期を振り返る時、この論文を思い出すのではないかと思います。

本論文に関わるジャーナルとのやり取りは以下のように進行しました。

2016年6月3日: 投稿
2016年6月8日: 著者の匿名化と全体のフォーマット(ダブルスペースなど)を修正するようにとの依頼を受け、微修正後に再投稿
2016年7月19日: Round 1の査読結果の通知(2名分)
2016年8月12日: 3人目の査読者のコメントが送られてくる
2016年9月2日: 修正後に再投稿。直後に小ミスに気づき修正し、unsubmitしてもらい同日再投稿
2016年11月20日: Round 2の査読結果の通知(査読者は1名のみ)。この時点で原則acceptされる。
2016年12月16日: 修正後に再投稿
2016年12月18日: Acceptの通知
2017年1月23日〜: proofの確認や微修正等々を数ラウンド
2017年3月20日: オンラインに掲載される

今後もこのメンバーで研究を続けていく予定ですので、第二弾やそれ以降の論文もご期待ください。

Standard

Asia-Pacific Corpus Linguistics Conference 2016

北京は北京航空航天大学で開催された標題の学会に参加しました。前回、2014年に香港で開催された時 1に続き、二回連続二度目の出席です。中国本土は2009年に広州を訪れて以来で、北京語圏には初めての訪問でした。本学会は土日の二日間のみの開催であったことと、私自身が月曜日の夜にケンブリッジで授業を行わなければならなかったことにより、二泊五日の強行日程となってしまいましたが、知人が運営に深く携わっていて参加を促されていたことやlangstatさんからお誘いを受けたことで、参加を決めました。

行った発表は以下の通りです。Multidimensional Analysis Tagger (MAT)を用いてICNALEのサブコーパスをタグ付けし、Biber (1988)が特定した6つの次元上に各テキストをマッピングすることにより、学習者の話し言葉と書き言葉にはどのような差異が観察されるかを見た研究です。

Kobayashi, Y., & Murakami, A. Contrastive analysis of L2 speech and writing: A multi-dimensional approach

さて本学会では参加者の大半を中国語話者が占めていたため、コミュニケーションは頻繁に中国語で行われ、初日に行われた参加者全員の写真撮影に至っては指示が全て中国語でした。またアジアでのコーパス言語学の学会であるにもかかわらず日本人の参加者は少なく、我々を含めて発表は三件のみでした。これは開催時期の問題もあるのかもしれません。そして良くも悪くもコーパス言語学の学会らしく、発表の質もマチマチだと感じました。しかしそれでも私にとってはバーミンガム時代の友人や3-4年前に他の学会で知り合った人達などと再会でき、その意味では参加して良かったです。

また学会以外でも現在北京在住のPhD時代の友人達と会え、彼等に美味しい北京ダックのレストランに連れて行ってもらえました。万里の長城も訪れたのですが、天候が悪く霧(?)のため数十メートル先も見えない状態でした。またタクシーをチャーターして行ったのですが、往復で800元と現地の物価を考えると割高であったこともあり、あまり良い思い出とはなりませんでした。

今回は中国本土ということもあり、事前にVPNをMBPとiPhoneの双方にインストールして行きました。ケンブリッジ大学が提供しているVPNHexatechというアプリがとりわけ役立ちましたが、そもそも会場にWi-Fiがなく、またローミングも非常に遅く使い物にならなかったため、実質的に会場ではインターネットアクセスがない状態でした。

次回の本学会は2018年に日本で開催されるようです。その時にどこで何をしているのかわかりませんが、可能であればまた参加したいと思います。

Notes:

  1. 当時の参加報告はこちら→こちら
Standard

EUROSLA 2016

フィンランドはユバスキュラで開催された標題の学会に参加しました。EUROSLAは2010-2013年に参加していたので 1、3年振り5度目の出席となります。ユバスキュラはこれまでに参加したEUROSLAの開催地の中では比較的交通の便が悪く、通常は午後の早い時間に学会が終わるとその日中にケンブリッジに戻れるのですが、今回は翌日に帰英せざるを得ませんでした。またユバスキュラ‐ヘルシンキ間の便は毎日飛んでいるわけではないため、ユバスキュラからタンペレまで電車で移動し、そこからヘルシンキ経由でヒースローまで戻ってきました。 2

さて、今回の学会では私は以下の二件の発表を行いました。
  • Alexopoulou, T. & Murakami, A. Incomplete acquisition of relativisors in L2 English. 要旨はこちら
  • Murakami, A., Michel, M., Alexopoulou, T., & Muerers, D. Analyzing learner language in task contexts: A study case of linguistic complexity and accuracy in EFCAMDAT. 要旨はこちら
前者は共同発表者が急遽学会に参加できなくなってしまったため、学会の前々日になって私が発表を行うことになってしまいました。しかし私がほぼノータッチの研究である上に、内容も馴染みのない言語学寄りで、結局共同発表者が作成した原稿をほぼ丸読みする形になってしまい 3、オーディエンスの方々には申し訳ありませんでした。学会最終日で更にConference Dinnerの翌日の朝一の発表だったので聴衆は2-3人だと踏んでいたのですが、蓋を開けてみると10人以上に来て頂けました。

また、もう一方の発表も準備不足のまま会場入りしてしまい、学会初日と二日目に共同発表者と必死に打ち合わせ&スライド修正を行いました。最終的に自分たちの発表(やはり最終日でした)の20分ほど前までスライドをいじっていました。本発表では私は第一発表者であるにもかかわらず発表を担当しませんでした。それが功を奏してか、共同発表者の見事なプレゼンテーションにより、オーディエンスには好評であったようです。

本学会で私がとりわけ面白いと思ったのはAndrea Revez氏他による「L2 revision behaviors, written text quality, and working memory capacity: A mixed methods study」という発表です 4。ライティングのプロセスを視線追尾とキーストローク、それに刺激再生法を組み合わせて見ることにより、作文時の修正とワーキングメモリの関係を調べるという研究です。要旨はこちらにあります。

この研究もそうですが、今年のEUROSLAではeye-trackingを用いた研究が非常に多かった印象です。2012年頃のEUROSLAで、最近は処理を見る研究が増えているという旨を以前からEUROSLAに参加されている方に伺いましたが、その流れが更に加速しているのでしょうか。そういえば私の所属する学科でも視線追尾の新しい機器を導入したと聞きました。

ところで今回のEUROSLAは日本人の比率が以前よりも更に高かったように思います。「東アジア系の人を見かけると大体日本人」というような状況でした。この分野の日本人研究者の活躍は目覚ましいですね。

来年のEUROSLAは英国のレディングで開催されるようです。EUROSLAは2014年にも英国のヨークで開催されているので少し意外でした。来年はどこで何をしているのかまだわかりませんが、参加できるようであればまた参加したいと思います。

Notes:

  1. 当時の参加報告はこちら→2010年2011年2012年2013年
  2. いま考えるとヘルシンキ‐ユバスキュラ間は電車で移動するべきで、実際多くの学会参加者がそうしていたのですが、何をどう思ったのか、本学会のための交通の手配をしていた時の私はヘルシンキ経由でタンペレまで飛ぶ便を取ってしまいました。ヘルシンキ-タンペレ間は僅か25分間のフライトでした。
  3. 「featural composition」「(featureの)underspecification」などの表現を私が学会発表中に使用することは今後はない気がします。
  4. 全くの余談ですが、この発表では実に91枚のスライドを20分間に詰め込んだそうです
Standard

The 38th Annual Meeting of the Cognitive Science Society

米国はフィラデルフィアのPennsylvania Convention Centerで開催された標題の学会(通称CogSci)に出席しました。この学会には初めて参加するのですが、認知科学全体をカバーしているだけあり(私がよく参加しているEUROSLACLなどと比べて)規模が大きく、950人が事前登録していたそうです。ただ認知科学と言っても(近年は?)認知心理学周辺の研究が多く、本学会でもその傾向は顕著でした。また私が見た範囲では研究の水準が高く、レベルがピンキリのCLなどと比べると面白い研究が多い印象を受けました。とは言え採択率が低いわけではなく、今回は口頭発表で3割強、ポスター発表で更に3割強が採択されたようです。ただし、CogSciではアブストラクトではなく2段組6ページの論文で審査を行い、その論文が予稿集として公開されます。つまりそもそも発表申し込みをするためには6ページの論文を書かなければならず、望みがないと判断した場合、その前段階で発表を諦めるのかもしれません。

本学会前日にはワークショップチュートリアルが多数開講されるのですが、私は「認知・意思決定の量子モデル」とどちらにしようか迷った結果、深層学習のワークショップ(Contemporary Deep Neural Networks)に参加しました。コネクショニズムのモデルで有名なJames McClelland氏らが主催者なのですが、蓋を開けてみると既に深層学習についてそれなりに知識がある参加者向けで、深層学習はおろか、ニューラルネットワークモデルを一度も走らせたことのない私のような参加者(ほとんどいなかったように思いますが)にはついていくのが難しい内容でした。それでもGoogle DeepMindの人の話を聞ける機会は我々の分野ではそうありませんし、興味深い経験ではありました。

認知科学の学会なので第二言語習得に関する研究は少なく、三件あった基調講演はいずれも言語に関するものではありませんでしたが、それでも言語処理に関する発表や副次的に言語獲得に言及する発表は多く、少なくとも個別発表に関しては十分に面白いと感じることができました。またニューラルネットワーク系のものを中心とする学習・習得のコンピューターモデルを用いた研究が多く、これはEUROSLAなどには見られない傾向だと思います。脳機能イメージングなど脳を見る研究は思っていたよりも少なかった印象です。

私は「Longitudinal L2 Development of the English Article in Individual Learners」というタイトルでポスター発表を行いました。用いたポスターはこちらにアップロードしています。また論文はこちらから読むことができます。ポスター発表自体は1時間半のセッションで5-6名にしか来てもらえませんでしたが、第二言語習得研究に携わっている参加者は決して多くないこと、セッション当たり160件を超えるポスター発表が同時進行で行われたこと、ポスターセッションは(会場外で各自でとる)昼食直後であることを考えると、やむを得ないのかもしれません。ただし、後ほど知人に助言を受けたように、あまり第二言語習得である旨を前面に押し出さず、より汎用的な知見・示唆を中心に据えたタイトル・内容にした方が良かったように思います。これは学会の参加者層に考えを巡らせなかった私のミスです。今後のCogSciで発表する機会があれば、もう少し広く学会がカバーする分野を見て発表内容等を決めようと思います。

本学会で私が拝聴した中でとりわけ面白いと感じたのがランカスター大学のPadraic Monaghan氏による「Degeneracy results in canalisation of language structure: A computational model of word learning」という発表です。こちらから論文を読むことができます。論文の概要は以下の通りです。

背景
  • 言語インプットは人によって異なるのに、人々がおおよそ同じ言語体系を獲得できるのはなぜか(canalisationの問題)
  • 従来はインプットの構造化に制約を与える(生得的な言語特性など)ことにより、それを説明しようとしてきた
  • しかし近年、コミュニケーション時に存在する複数の情報を組み合わせることにより、その学習が可能となっているのではないかという話が出てきている
  • 複数の要因が絡み合うと情報処理構造は安定さを増すことが知られており、それがcanalisationに繋がっているのではないか
  • 近年、このように言語環境が言語学習に寄与するという考え方が再び注目を浴びている
  • どのように複数の情報源が統合されるかについては、幾つかの説明がある
  • 一つの可能性は、言語学習では複数のキューが絡み合い、その結果として、(インプットなど)環境的な要因にゆれがあっても安定したシステムに繋がる、というもの
  • 複数の構造的に異なる要素が同一の機能を果たしたり同一のアウトプットを生むという言語の特性(degeneracyと呼ぶ)により、特定のキューのみに頼ることのない、頑健なシステムが構築される
  • 言語や他の複雑系のdegeneracyのコンピューターモデルは、degeneracyが学習の頑健性に重要であることを示している
  • 本論文では複数の要因が絡み合うコンピューターモデルをproof of conceptとして用いることにより、degeneracyがcanalisationに繋がることを示す
  • 例として語の学習を取り上げる。語の学習は難しい(いわゆるGavagai問題で)
  • キューとして分布(冠詞の後は名詞、など)やプロソディーがあり、それらは語の形式と意味のマッピングの学習を促進することが知られている
  • 状況間の統計的情報(同じ形式-意味の結びつきに異なる状況で何度も触れること)もキューの一つ。ジェスチャーなどもキュー。
  • しかしこれらのキューは単独ではいずれも学習に丁度良い制約を与えるものではない。例えば冠詞の後には形容詞も来うるので、分布のキューは完璧ではない。
  • 実は特定のキューの信頼性が低いのはむしろ良いことである。仮に一つのキューのみに頼ってしまうと、そのキューがない時にコミュニケーションが疎外され得る。
  • 一方で、複数のキューが存在するデメリットは、より多くの情報を一度に処理しなければならなくなること
  • 複数の情報源を統合することにより語の形式と意味の結び付きが促進されるか否かを検証するコンピューターモデルを構築した
  • 二種類のシミュレーションを行った。
    1. 個々のキューを加えると習得は容易になるか否かを検証する。しかしキューの信頼性が高いと、そのキューが不存在の場合に形式と意味のマッピングの習得が疎外されることが予測される(=頑健性が犠牲になる)
    2. ノイズがある複数のキューを加えると習得は促進され、また頑健になるか否かを検証する
モデル
  • hub-and-spoke architectureのモデルを用いることにより、複数の異なるモダリティーからの情報をインプットとして処理資源に渡す。そうすることにより、学習をサポートするのに最適な情報統合方法をモデルが決められる。
  • このモデルは先行研究にある語学習の連合モデルやcross-situationalな語学習のモデルと一貫している
アーキテクチャ
  • recurrent backpropagation neural networkのモデル
  • 100ユニットの隠れ層が一つあり、そこに様々なモダリティーからの情報がインプットとして与えられ、意味を表す層にアウトプットする
  • 音声情報を表すインプット、視覚情報を表すインプット、分布情報を表すインプットがある
  • (村上注:詳しくは本文のFigure 1を参照)
表象
  • 100語を学習する。意味を表す層のユニット数も100で、各語が1つのユニットに対応する
  • 音声情報に関しては、1語が(全10種類ある内の)4つの音素から成っている。各音素が5つのユニットに対応していて、内2つがアクティブである。
  • 視覚情報に関しては、20ユニットから成っており、各語において内8ユニットがアクティブな状態である
訓練
  • 二語が同時に提示され、その内の一語のみインプットに表象される
  • すなわち、音声情報には二語分のスロットがあるが、その内の一語は提示された二語の内の一語の音声情報が正しく表象されるが、もう一語分のスロットには無作為に選択された他の語の音声情報が表象される。視覚情報のインプットも同様。
  • プロソディーとジェスチャーのキューはそれぞれ音声情報、視覚情報の活性度を二倍にすることにより表現した
  • (村上注:つまり、何もキューがない状態でも語に対応する音声情報や視覚情報はあるが、キューがあることにより、それらが強化されるということ)
  • 分布は語の外在的なキューとして実装された。すなわち、ある語がカテゴリー1に属する語だと、分布層のユニット1が活性化した
  • 単一キューの検証時はキューの信頼性は100%とし、複数のキューの貢献を検証する際はキューの信頼性を25%から100%まで変化させた
  • 活性化のサイクルには6ステップあり、Time 1では視覚情報と音声情報がインプット層に表現され、Time 2では活性情報がインプットから隠れ層、隠れ層から意味の層、そして隠れ層から隠れ層へと伝搬される。Times 3-6では意味のアウトプット層に意味が表現される。
  • 1エポック当たり100語それぞれが一度ずつ対象語として出現した。最大10万エポックまで訓練された。
  • 初期値を変えるなどして20種類のモデルを構築した
テスト
  • 意味の層で最も活性度の強いユニットが対象語と一致していれば、モデルは正確であると判断した
  • 訓練中の正確性と、100語全て正解した時点を見た
  • 訓練後に、テスト時にキューが不在でもモデルは正確なアウトプットを産出するか否かを見ることにより、モデルの頑健性を検証した
結果
<単一のキューの場合>
  • プロソディーのキュー又はジェスチャーのキューがあると、キューがない場合と比較してより早く100%の正確性に達した
  • 分布のキューはキューなしと大差なかった
  • プロソディーのキューとジェスチャーのキューは分布のキューよりも効果があった
  • プロソディーのキューとジェスチャーのキューは差なし
  • 頑健性を検証するため、それぞれのキューがない状態での正確性を見てみたところ、プロソディーのキューとジェスチャーのキューはそれぞれが不在だと正確性がキューなしよりも劣る
  • 分布のキューはなくてもキューなしの状態と同等の正確性だった
<複数キューの場合>
  • それぞれのキューの信頼性が高いほど、学習が速い
  • 頑健性については、単一キューの場合と同様にテストしたところ、信頼性が50%→75%→100%と上昇するに従い、正確性は低下した
  • キューの信頼性が低くても学習が速くなったり頑健になったりするわけではないが、キューの出現率が50%を超えると、モデルの頑健性が損なわれる
  • 50%の信頼性が学習速度と頑健性の最適なトレードオフを実現するポイントのようだ
考察
  • 複数のキューに注意することは処理負荷を増やすが、一方でそれは言語学習に二つのメリットがある
    1. 学習の速度と正確性が向上する。キューの生起確率が50%だとしても、キューがないよりは学習が促進された。
    2. degenerateな環境から学習すると頑健になり、キューの出現が安定していなくても(=コミュニケーションの状況により異なっても)そのキューを活用できる。
  • しかしこの頑健性はキューにノイズがある時にのみ観察された。従って、語学習におけるcanalisationは複数の情報源が絡み合う結果だと見ることができる。
  • 更に、学習速度と頑健性にはトレードオフが観察された。キューの信頼性が高いほど学習速度は速くなる。情報源が増えるほど頑健になるが、それはそれぞれの情報にノイズが混ざっていた場合のみである。
なお、当該研究は本学会でComputational Modeling賞という賞を受賞しています。この賞はその名の通りコンピューターモデルを用いた優れた研究を表彰するものですが、いくつかの下位分野があり、その中の「言語」に関するモデリングの賞を受賞しています。

本学会は来年はロンドンで開催されるとのことです。来年どこで何をしているのかわかりませんが、参加できるようならまた参加してみたいと思います。
Standard

CogSci予稿集

来週のCogSciを前に、予稿集がオンラインで公開されました。私たちの論文はここからダウンロードできます。書誌情報は以下の通りです。

Murakami, A., & Alexopoulou, T. (2016). Longitudinal L2 development of the English article in individual learners. In A. Papafragou, D. Grodner, J. Trueswell, & D. Mirman (Eds.), Proceedings of the 38th Annual Meeting of the Cognitive Science Society (pp. 1050–1055). Philadelphia, PA: Cognitive Science Society.

本論文ではEFCAMDATに基いて、L2英語の冠詞の正確性を対象に、集団レベルの発達パターンと個人レベルの発達パターンは必ずしも一致しないことを示し、集団レベルのデータを用いて個人レベルの発達を類推することは問題がある旨を主張しています。

また、来週の当該学会で使用するポスターをここにアップロードしました。論文を読むのは面倒だがポスターくらいならチラ見しても良いという方はそちらをご覧ください。
Standard

今夏〜今秋の学会発表予定

今年は以下の3学会に出席し発表します。いずれかの学会にいらっしゃる方がおられましたら、よろしくお願い致します。

1. Annual Meeting of the Cognitive Science Society (CogSci) @ 米国・フィラデルフィア(8月10-13日)

以下のタイトルでポスター発表します。

  • Murakami, A., & Alexopoulou, T. Longitudinal L2 development of the English article in individual learners.
2. EUROSLA @ フィンランド・ユヴァスキュラ(8月24-27日)

以下の二件の口頭発表を行います。

  • Murakami, A., Michel, M., Alexopoulou, T., & Muerers, D. Analyzing learner language in task contexts: A study case of linguistic complexity and accuracy in EFCAMDAT.
  • Alexopoulou, T. & Murakami, A. Incomplete acquisition of relativisors in L2 English.
3. Asia-Pacific Corpus Linguistics Conference (APCLC) @ 中国・北京(10月21-23日)

以下のタイトルで口頭発表を行います。

  • Kobayashi, Y. & Murakami, A. Contrastive analysis of L2 speech and writing: A multi-dimensional approach.
以上に加え、9月に開催されるAnnual Meeting of the Linguistics Association of Great Britain (LAGB)でも以下の発表に名を連ねていますが、私は出席しない予定です。

  • Alexopoulou, T. & Murakami, A. Animacy and feature underspecification in L2 English relative clauses.
意図していたわけではありませんが、私が今年発表する学会の領域は認知科学・SLA・コーパス言語学、そして開催地も北米・欧州・アジアと広範に亘ることとなりました。
Standard

GLMM/GA(M)Mの文献案内

先日紹介したLL論文は語数の関係から、書きたくても書けなかったトピックや削らざるを得なかった箇所が多くあります。その中のいくつかはOnline Supporting Documentとして公開していますが、最終的に完全に削除してしまい、Online Supporting Documentにすら残さなかった箇所の一つとして文献案内があります。一般化混合効果モデル(GLMM)については既に優れた文献が日本語・英語を問わず多くありますが、一般化加法モデル(GAM)・一般化加法混合モデル(GAMM)に関する文献については専門性が高いものが多く、一般的な言語研究者にとっては敷居が高いものがほとんどです。そのため、言語研究者がGA(M)Mを用いる際に参考になる文献(言い換えると私がLL論文を書くに当たり参考になった文献)を紹介するのは有益だと考えました。しかし語数の関係から結局はLL論文から全て削らざるを得なかったので、ここでその内容を紹介します。

削除した段落は以下のようなものでした。

Due to space limitations, this paper was not able to discuss many issues that are worth discussing in relation to GLMMs, GAMs, and GAMMs. These include the details of estimation procedure such as the choice of optimizers for GLMMs, the issue of calculating p-values in all of the three models, equivalent measures to R2, and, in particular, model diagnostics. For further details and/or practical tutorials, readers are referred to Bolker et al. (2009), Baayen (2008), Baayen et al. (2008), and Gelman and Hill (2007) for GLMMs. There is less accessible literature on GA(M)Ms, but James et al. (2013), Hastie et al. (2009), Zuur et al. (2009), Baayen (in preparation, Chapter 8) and Wieling (2014) should be helpful. The documentation of the mgcv packages in R (Wood, 2014) and some of the slides on the developer’s website 1 are also good resources. Readers are also welcome to look at the author’s R codes on IRIS [注: 最終的にIRISではなくOSFにRコード等はアップロードしました→こちら].

まずは上で挙げたGLMM関連のものから順に紹介していきます。

Bolker, B. M., Brooks, M. E., Clark, C. J., Geange, S. W., Poulsen, J. R., Stevens, M. H. H., & White, J.-S. S. (2009). Generalized linear mixed models: a practical guide for ecology and evolution. Trends in Ecology & Evolution, 24(3), 127–35. doi:10.1016/j.tree.2008.10.008

Rで混合効果モデルを構築する際によく用いられるlme4パッケージの開発者であるBen Bolker氏が筆頭著者を務める、一般化混合効果モデルに関する論文です。生態学分野に向けての論文であるため、モデルの推定方法による差異や自由度の算出方法など、一般的な言語研究者にとってはやや高度なトピックが扱われています。しかし各種ソフトやRパッケージ間の違いが数式等を用いることなく説明されていて、LL論文を書くにあたり非常に助けられました。

Baayen, R. H. (2008). Analyzing linguistic data: A practical introduction to statistics using R. Cambridge: Cambridge University Press.

言わずと知れた言語統計の名著です。言語研究者向けですが、特に6-7章はなかなか高度で、“introduction to statistics”には“for those who have been mathematically trained”などの句が隠れていると考えた方が良いと思います。第一刷がここで無償で公開されています。近々GA(M)Mの章を加えた第二版が出ると聞いています。

Baayen, R. H., Davidson, D. J., & Bates, D. M. (2008). Mixed-effects modeling with crossed random effects for subjects and items. Journal of Memory and Language, 59(4), 390–412. doi: 10.1016/j.jml.2007.12.005

言語研究で混合効果モデルが広まるきっかけとなった論文です。内容的には上掲書の混合効果モデルの章と似ています。本論文はJMLにこの10年間に出た論文で、最も引用されているのではないでしょうか。現在でもJMLの「過去90日間に最もダウンロードされた論文」のトップです。因みに現時点で同ランキングの2位のBarr, Levy, Scheepers, and Tily (2013)も混合効果モデルに関する論文で、変量効果にはデザイン上可能な限り多くのrandom interceptとrandom slopeを入れるべき(maximal modelを使うべき)だと主張するものですが、これにはBaayen氏らが反論論文を出しています(こちらこちらこちら)。しかしそのBaayen氏らの論文にも疑問が呈されており(これこれ)、現時点でも決着のついていない問題です。

Gelman, A., & Hill, J. (2007). Data analysis using regression and multilevel/hierarchical models. New York, NY: Cambridge University Press.

ベイズ統計の大家でStanの開発者でもあるAndrew Gelman氏による回帰モデルの書籍です。私は一部しか読んでいませんが、読んだ部分に関しては、非常にわかりやすかったです。先述したBarr et al. (2013)と同じく、本書もmaximal modelを推奨しています。またこちらも第二版(あるいはそれに相当する後続本)が出るよう2、第二版は二巻セットとなり、それぞれにStanコードが付くとのことです。

続いてGA(M)Mの文献。

Hastie, T., Tibshirani, R., & Friedman, J. (2009). The elements of statistical learning: Datamining, inference, and prediction (second edition). New York, NY: Springer.

こちらから一冊丸ごと無料でダウンロードできます。最近邦訳も出版されました。統計的学習の金字塔的な文献で、著者の最初の二名(HastieとTibshirani)は一般化加法モデルの提唱者です。本書は基本的に専門家向けであるため、数式も多く、一般的な言語研究者が読み解くのは容易ではないと思います。しかしテンソル積(tensor product)を用いた平滑化スプラインなど、一般化加法モデルを扱うために必要・有用ながら他書には載っていない事項に関する説明も含まれています。

James, G., Witten, D., Hastie, T., & Tibshirani, R. (2013). An introduction to statistical learning: With applications in R. New York, NY: Springer.

こちらから一冊丸ごと無料でダウンロードできます。統計学やその関連分野の専門家を対象とした上記Hastie et al. (2009)に対し、本書はそれら以外の分野の研究者(=非専門家)を対象としています。数式フリーとはいきませんが、一般化加法モデルを扱った文献としては比較的読むのが容易な部類に入ると思います。一般化加法モデルを理解するのに必要な平滑化スプラインのセクションを含め、個人的には学ぶことが多くありました。

Zuur, A. F., Ieno, E. N., Walker, N. J., Saveliev, A. A., & Smith, G. M. (2009). Mixed effects models and extensions in ecology with R. New York, NY: Springer.

本書では、生態学分野での混合効果モデルや一般化加法モデル、一般化加法混合モデルなどの使用が扱われています。上記のJames et al. (2013)よりも更に読みやすく、またRコードも多く記載されているため、言語研究者が一般化加法モデルを学ぶ場合、本書から始めれば良いのではないかと思います。また、統計学の研究者以外に向けられた書籍で、一般化加法混合モデルを扱っているものは本書を除き私は把握していません。ただし、本書での一般化加法混合モデルの扱い方はBaayen氏らのアプローチとは違うので、その点に関しては注意が必要です。

Wieling (2014)はこのスライドを指していますが、現在ではよりアップデートされたスライドがここに公開されている(上に随時アップデートされている)ので、そちらを参考にするのが良いと思います。私がLL論文の一般化加法(混合)モデルを用いた分析を行うにあたり、公開されている文献・資料の中で最も参考になったのがこれらのスライドです。言語研究者を対象としており数式は用いていない点、それでいて内容は相当に高度な点、Rコードが多用されている点において、一般化加法(混合)モデルを用いることを考えている一般的な言語研究者にとって有益なスライドであることは間違いありません。惜しむらくはスライドであるため、十分に細部の説明が含まれていないことでしょうか。その点については先述したBaayen (2008)の第二版を待ちましょう。

最後はRで一般化加法モデルを構築する際によく用いられるmgcvパッケージの開発者である、Simon Wood氏のスライドです。氏は最近バース大学からブリストル大学に移られたようで、それに伴い氏のウェブサイトのURLが変わり、私がLL論文の参考文献欄に記した関連URLは既に繋がらなくなってしまっています。mgcv関係のスライドは現在はここからアクセスできます。氏は統計学者ですので内容は専門性が極めて高く、一般的な言語研究者では細部は理解できないと思います。しかしRコードが掲載されていることも多く、またところどころ直感的な説明もあるので、少なくともざっと眺める価値はあると思います。また、スライドとは別資料ですが、mgcvパッケージのヘルプファイルも大変参考になりました。本記事最初の引用部内のWood (2014)はヘルプファイルを指しています。例えば「?summary.gam」のページには、p値の計算方法が詳しく記述されています。

Notes:

  1. http://people.bath.ac.uk/sw283/mgcv/
  2. ただしこのコメントを読む限り、もうしばらくは出なさそうです
Standard

LL論文

昨日のSSLA論文に引き続き、今回はLanguage Learning誌に掲載された以下の論文の紹介&裏話です。

Murakami, A. (2016). Modeling systematicity and individuality in nonlinear second language development: The case of English grammatical morphemes. Language Learning. Advance online publication. doi: 10.1111/lang.12166 [リンクプレプリント] [データやRコード]

本論文は一般化線形混合効果モデル(GLMM)と一般化加法混合モデル(GAMM)を第二言語習得研究者コミュニティーに紹介することを目的としています。SSLA論文同様、本論文も博士論文の章が基になっているのですが、実はこの分析を行うことに決めたのは、博士課程の三年目が終わり、いわゆるwrite-up periodに入る直前(2012年12月)でした。「材料はあるのでとりあえず博士論文のドラフトを書く」というのがクリスマス休暇中の課題だったのですが、書いている内にこの分析を足した方が良い気がして足早に分析を行い、当初は別の章の一部でしたが後ほど一つの章として独立させました。

博士論文の章が基になっているものの、本ジャーナル論文はそこから大幅に変更を加えています。実は博士論文ではGAMMは用いていません。行いたかったモデル比較ができないと思い込んでいたためです。しかしその後に出席したワークショップで当時想定していたようなモデル比較が可能であるということを学び、本論文ではGAMMを用いました。

しかし、そこそこいけるだろうと内心思っていたSSLA論文とは対照的に、この論文がLLに掲載されることは実はほとんど期待していませんでした。LLの2015年の特集号が計量データ分析に関するものでしたが、それ以前に統計手法を中心に据えた論文がLLに掲載された例は近年だと私の知る限りGudmestad et al. (2013)しかなく、この論文もタイトルこそ統計手法の色が強いですが、実際に読んでみると統計以外の内容もしっかりとしている(少なくともそう見える)論文です。つまり私が投稿した2014年時点では統計手法を紹介するという類の論文はLLに掲載されたことがなく、かと言って手法ではなく内容面を中心に据えるにはインパクトが足らないと思っていたので 1、まあ有益なフィードバックがもらえればいいやくらいの気持ちで最初は投稿しました。また当初はmethodological reviewではなくproblem-drivenな研究として投稿しました。上記を鑑み、あまり統計色を前面に押し出さない方が良いのではないかと考えたためです。結果、査読者&Editorに「problem-drivenな実証研究なのか手法面に焦点のある論文なのかはっきりしろ」とフィードバックを受け、なんだ統計手法を中心に据えても良いのかと思い、その後は開き直って統計モデリングを紹介するという主旨の論文に修正しました。それと同時に、それで良いのであれば掲載されるかもしれないとも感じました。

本論文は投稿からオンライン上での掲載まで1年半かかりました。SSLA論文(1年3ヶ月)よりも時間がかかったのは査読が2ラウンドあったためですが、それでもトータルでは割とスムーズに進んだ印象です。1年半の内、8ヶ月ほどはこちらで止めていました。査読者は各ラウンドで3名ずつ(ラウンド2ではラウンド1から1人引き継ぎ)でした。面白かったのが、計5人の査読者の内、2人が記名付きの査読コメントだったことです。話には聞いたことがありましたが、第二言語習得研究分野では珍しいと思います。後日、記名査読だったお二方にお礼のメールをさせて頂いたところ、その内お一人から実験心理学では3-4人の査読者がいれば1-2人は記名であること 2など、色々と面白い話を伺うことができました。

また、査読者の内一名のコメントが専門的ながら非常に的を射たもので、一体どういう方なのだろうかと思いながら読んでいったところ、コメントの最後にお名前を発見しました(上述した記名査読の方の一名)。存じあげない方でしたが、検索すると納得の所属と業績でした。LLでガチガチの統計手法に関するコメントをもらえると思っていなかったこともあって、この査読者を当ててもらえて良かったと感じました。

時系列でジャーナルとの主なやり取りを記すと以下のようになります。

2014年8月4日: 投稿
2014年10月23日: 査読者三人の内、二人がMajor Revision、もう一人がMinor Revisionで総合的にMajor Revision。
2015年1月8日: ほぼ全面的に書き直し(初稿から残ったのは用いたコーパスの説明くらい)、完全に統計モデリングを主眼に据えた論文として修正版を投稿。
2015年1月9日: 「あなたが投稿した114ページに亘る23214語の論文はジャーナル論文ではなくshort monographだ。短くしなさい」という(たいへん真っ当な)指示を受ける。
2015年2月18日: 余剰分の大半をOnline Supporting Informationに移して、他の箇所も削り、なんとか指示された12000語以内に抑えて再投稿。割と長いOnline Supporting Informationが付いているのはこのため。
2015年4月16日: 査読結果の通知。conditional to your satisfying the minor revisions requested in the reviewsでacceptとのこと。前回全面的に書き直していたこともありもう1ラウンドを覚悟していたため、ちょっと拍子けしました。しかし査読者レベルで見ると、Minor Revisionが一人、Acceptが一人、Major Revisionが一人と、結構割れていました。
2015年8月7日: 再度分析からやり直し、修正版を投稿。
2015年9月4日: 「in its current formでacceptする」旨の連絡。
2015年12月3日: Editorからのproofが送られてくる。
2015年12月10日: proofに色々と手を入れて返信。
2016年1月-2月: 出版社(Wiley)よりe-proofが送られてくる→数点修正しe-proofを返信、を3サイクル
2016年2月17日: オンライン上に掲載される

博士論文からは可能であればもう一本ジャーナル論文を出したいと思っています。その部分に関しても予稿集の論文としては出ることが確定しているので、そちらもオンラインに公開され次第、こちらで紹介します。

(追記:2016年11月22日)紙媒体でも公開されたようです

Notes:

  1. 今から考えれば内容面でも勝負する方法はあったと思います
  2. いわゆる「大御所」の研究者ばかりだそうですが
Standard

SSLA論文

ブログをお休みしていた二年間の間に、二本ジャーナル論文が出ました。いずれも博士論文を基にしたものです。 今回は昨年の11月にオンラインで公開された下記論文の紹介並びに裏話です。

Murakami, A., & Alexopoulou, T. (2015). L1 influence on the acquisition order of English grammatical morphemes: A learner corpus study. Studies in Second Language Acquisition. Advance online publication. doi:10.1017/S0272263115000352 [リンクプレプリント]

この研究は私が主に博士課程の一年目から二年目の半ば(2010年-2011年夏)にかけて行ったもので、ケンブリッジ学習者コーパスに基づき、英語文法形態素の習得順序における母語の影響を実証的に検証すると共に、文法形態素によって母語の影響の強さが異なることを示した論文です。第二言語習得論の入門レベルの授業で必ず扱われる文法形態素習得順序研究に位置づけられる研究ということもあり、何人もの方が自身の第二言語習得論の授業で課題論文に挙げると仰ってくださっています。

結果自体は現代では特に驚くべきものではありませんが、大規模学習者コーパスを用いて文法形態素の習得順序が母語によって異なることを示したのは一定の意義があると考えています。また、母語の影響の強さが文法形態素によって異なる点も、博士論文(こちら)では別の学習者コーパス(EFCAMDAT)を用いて再現できていますし(Researchセクション参照)、実在する現象を捉えていると思っています。

こちらの連続ツイートにも記しましたが、私が第二言語習得研究を初めて面白いと感じたのは、学部時代に受講した第二言語習得論入門の授業 1でnatural orderについて学んだ時で、博士論文でそれを扱い、否定することになるとは奇縁を感じます。

本SSLA論文ですが、投稿してからオンラインに掲載されるまでトータルで1年3ヶ月かかりました。しかしこちら側が結構止めていて(inhouse evaluationの後と査読後に計6ヶ月)、査読自体は1ラウンドのみで2ヶ月でした。時系列でジャーナルとの主なやり取りを記すと以下のようになります。

2014年7月下旬: 初稿をメールにて投稿
2014年8月6日: Inhouseで見たが査読に回すには問題が多いので、XX等を改善せよ、と当時のEditorからのメールを受信
2015年1月18日: 修正した原稿をメールにて投稿
2015年2月9日: 査読に回す旨の連絡。査読に回れば50%はacceptされるとのこと。
2015年4月8日: Accept pending final revisionsとの通知。
2015年7月18日: 修正版を投稿。
2015年8月6日: LaTeXで書いていたためここまでの投稿は全てPDF形式で行っていたが、ここに来てWord形式で提出してくれということなので、完全手動でWordに移して再提出
2015年9月25日: proofが送られてくる
2015年10月3日: proofに修正が必要な箇所を送信
2015年11月2日: オンライン上に掲載される

見聞きした範囲内では、これは投稿から掲載まで割とスムーズに進んだパターンかと思います。

この研究は博士論文の中では最も手堅い部分なので、それなりのジャーナルに掲載が決まってほっとしました。次回は本論文と平行して進めていたもう一本の論文について書きます。

(追記:2016年9月1日)紙媒体でも公開されたようです。

(追記:2017年3月2日)本論文はSSLAに出版された中でその年に最もoutstandingであった論文に贈られるAlbert Valdman賞を受賞しました(参照)!

Notes:

  1. こちらに一部が公開されています。
Standard