生存時間解析のチュートリアル論文を読む(その2)

生存時間解析のチュートリアル論文を読む(その1) - ふゆみけ〜おかわり〜 の続き

2. DATA

  • 臨床データの分析で一番大事なのでデータの integrity 、例えばデータの質、完全性、妥当性
    • これらが備わってないデータにどんなに高度な統計手法を使っても無駄だよね

2.1. General problems of bias

  • ここまで挙げた観察データ分析特有の問題に加えて、ランダム化実験とも共通したバイアスの問題があるよ
    • Bias which prejudices external generalizability
      • 入手可能な患者のサブセットから導き出された結論を、同じ条件の患者すべてに一般化したいけど、それって本当にできるんだっけ?
      • 典型的ではない患者群から得た結論を一般化したかったら、その典型的じゃなくさせている要素を分析の中でちゃんと考慮しないといけないよね
    • Ascertainment bias
      • 患者のある状態に関する情報の可用性が、その状態に依存する時に起こるよ
      • 「患者が死んだ」という情報が「生きている」という情報より報告されやすいとしたら、その追加情報はバイアスの原因になるよ

2.2. Illustrative data

  • 複雑性肺動脈閉鎖?の218人の患者から30人を抜き出したデータを使うよ
  • この病気の特徴としては、先天性の病気だけど medical attention が現れる年齢にばらつきがあることなんだ
  • 30人を抜き出した基準は説明に都合がいいからという理由なので、このデータから出た結論を一般化しちゃだめよ
  • (データの詳細は実論文を参照)

生存時間解析のチュートリアル論文を読む(その1)

生存時間解析なのか生存時間分析なのか、はたまたサバイバル分析なのか。 いまいち呼称が統一されていないSurvival Analysis。

医療統計や計量経済ではよく使われるはずなのですが、 日本語で読める定番の書籍があまりないことも呼称の乱立の原因なのかも知れません。

お仕事の関係で入門したいのですが、松戸のジュンク堂に行っても生存時間解析の本が一冊もない。

こりゃだめだ。ということでググってたら見つけたチュートリアル論文(英語)に手を付けることにします。

TUTORIAL IN BIOSTATISTICS - SURVIVAL ANALYSIS IN OBSERVATIONAL STUDIES

http://www.rni.helsinki.fi/~kja/event2010/Tutorial.pdf

要約

1. INTRODUCTION

1.1. Background

  • データベースを使った研究が医療分野でも増えてきたよ

1.2. Structure of this paper

  • 従来から主流だったランダム化比較実験と、観察データに基づく分析には重要な違いがあるんだ
    • ランダム化比較実験
      • 実験群の間で説明変数(観察不可能なものも含む)がバランスしているから、非説明変数の違いはほぼ全部介入の影響と考えていいよ
    • 観察データに基づく分析
      • 対象の選び方がランダムじゃないし、介入のタイミングもバラバラだから、介入の被説明変数への影響がtentativeだよ
  • ランダム化比較実験ができず、観察データに基づく分析に頼らざるを得ないような場面はある
  • そんな時には、観察データの質にかなり厳格な注意が必要だし、より洗練された統計分析が求められるんだ
  • この論文では、観察データからよりvalidな結論を導き出すための研究デザインや分析手法について説明するよ
  • 詳しくは第2節で説明するけど(たぶん)、2つのストーリーに沿って説明するよ
    • 1つ目は fixed interval でのイベント発生を対象とするものだ
      • 例えば「手術から1年以内の死」みたいに
    • 2つ目は、期間をまたいだイベント発生を分析するもの
      • 例えば「20歳になるまでの死亡率のパターン」
  • 重要な概念は2つ
    • 第4節で導入する late entry
    • 第9節で考える time-dependent variables
  • 詳しくはそれぞれの節で説明して、第10節ではこれらの概念を組合せて分析する方法を教えるよ
  • 最後にはこうした分析から導く結論には、どうしてもtentativeな性質があることを強調して終わるよ

所感

の前に、何故口語調で訳したんだ俺

  • 「実験できないから観察データに頼らざるを得ないんだけど、そうするとデータの統計的な扱いにはかなり気をつけて、工夫した手法を使わないといけないよね」という問題設定は、自然科学に対する計量経済学や計量社会学のアプローチに近い(というかまんま)
    • 医療統計全然知らなかったんだけど、自分のバックグランド(社会学)と実は近いのかも
  • 英国人の英語って読みづらくないですかね…ちょっと難しいし一文がやたら長いし…

第2節も近いうちに上げます。

私の情報収集術

諸事情により長い夏休みだったので、情報収集のやり方をちょびっと洗練してみた。

f:id:fuyumi3:20150816224631p:plain

目的

普段TwitterのTLを追ってるだけでも、Web業界/データ分析業界の動向はだいたい掴める。

それとはてブのトップ見てればだいたいの情報は入ってくるんだけど、いずれにせよ読みっぱなしだと「あれ、どっかで読んだ気がするけど思い出せない…」になりそうなので、役に立つ/面白いと思った情報はストックしておきたい。

プラスして、仕事に関係あること以外でも、政治経済社会スポーツエンタメその他広くアンテナ張っときたいよね。新聞とか取ってないし。

最後におまけで、読んだページをTwitterに流しておけばひょっとすると人の役に立つかも知れない。

情報収集源

  1. Presso
    • はてな村民なので、キュレーション系ではPressoが一番しっくりくる。
  2. RSS
    • 固定で追っかけたいブログやサイトはRSS登録

情報の集約

PressoとRSSリーダfeedly使ってる)個別で読んでると情報が分散されてしまう。やはり情報は一元管理したいよね。

ってことでPocketを使うことに。

Pressoの記事リスト画面にはワンタップで「あとで読む」タグをつけてブクマできる機能がるので、iftttを使ってこれをPocketに流すように設定。

feedlyiPhoneアプリには直接Pocketに送る機能があるので、これを使う。

こうすることで、電車の中とかでPressoとfeedlyのアプリを開いて、興味ある記事をぽちぽちっとするとPocketに保存できるように。

読む

Pocketで読む。ただひたすら読む。

出先でスマホで読んでもいいし、家でPCやタブレットでじっくり読んでもいい。クラウド万歳。

シェア()する

読んでこれ面白いなーと思ったら、Pocket上でスターを付ける。ここでまたiftttを使って、スターをつけた記事をTwitterに流すようにしておく。

これで人力キュレーションメディアの出来上がり。

まとめると冒頭の画像になる。

問題点

いろいろある

  • あとで読む」でブクマした記事がPocketに反映されるのに時間がかかる
  • あとで読む」だけのブクマが大量発生する。コメント付きのブクマがしづらい
  • Twitterに流れるのはタイトルとリンクだけで、自分のコメントとかはつけられない

問題はあるが、現状それなりに機能してるのでしばらくはこのままでいこうと思う。

Neo4jをはじめよう - (2) データを投入する

Neo4jをはじめよう - (1) インストール - ふゆみけ〜おかわり〜

の続き

前回の最後で「Twitterのデータを投入!」とか息巻いてましたが、API制限キツくて色々めんどくさいのでここはSNA(社会ネットワーク分析)用のサンプルデータを使うことにします。

「SNAって何やねん」って人はこのエントリでも見ればいいんじゃないでしょうか。

d.hatena.ne.jp

使用するデータ

SNABook/chapter3 at master · maksim2042/SNABook · GitHub

上述した勉強会で使った『オープンソースで学ぶ社会ネットワーク分析』という本の3章のデータを使います。

LiveJournal.comとかいうSNS(?)*1から、とあるユーザーの友人、友人の友人、友人の友人の友人……を深さ3で取得したデータ。

node数は87,250、edge数は143,120と、遊び用のデータとしてはなかなかいい感じな規模感。

サンプルデータをNeo4に投入

csvに変換

では、このデータセットをneo4jに投入してみましょう。サンプルデータはPajekというネットワーク分析ツールで使うデータ形式で保存されており、このままではロードできません。

neo4jで外部ソースからインポートするにはcsvファイルを使います。

12.8. Importing CSV files with Cypher - - The Neo4j Manual v2.2.1

そこで、今回はnetworkxというPythonのネットワーク分析用ライブラリを使って、Pajekのデータ形式をneo4jが読み込めるcsv形式に変換してやります。

gistcdd6b2ee69af071e76d9

nodeとedgeで別ファイルで、結果はこんな感じに。

nodes.csv

id,name
17872,zhuravl
19609,kir_a_m
51320,vizu_buduwee
21481,na_stasja
66039,aernmru
...

edges.csv

start,end,weight
zhuravl,milavalyacat,1.0
zhuravl,a_u,1.0
kir_a_m,cheger,1.0
vizu_buduwee,johnjthunderer,1.0
...

cypherで読み込み

あとはこいつをcypherを使って読み込みます。

前回のエントリ通りvagrant仮想マシンを立ち上げていれば、Vagrantfileと同じディレクトリにこのcsvファイルを設置すれば仮想マシン上からも/vagrantでアクセス可能ですね。

ブラウザ経由でアクセスして次のコマンドを叩いてやりましょう。

LOAD CSV WITH HEADERS FROM "file:///vagrant/nodes.csv" AS csvLine
CREATE (n:Person {id: toInt(csvLine.id), name: csvLine.name})
LOAD CSV WITH HEADERS FROM "file:///vagrant/edges.csv" AS csvLine
MATCH (m:Person), (n:Person)
WHERE m.name = csvLine.start AND n.name = csvLine.end
CREATE (m)-[r:FRIEND {weight: toFloat(csvLine.weight)}]->(n)

データのインポートには結構メモリを食うようで、vagrantのデフォルトで割り当てられているメモリ(300Mぐらいだったか?)だと「ヒープが溢れたよ」ってエラーになって成功しません。カッとなってVagrantfileを書き換えて2G割り当てたら成功しました。

正常に読み込めたか確認する

MATCH (n) RETURN COUNT(n)

f:id:fuyumi3:20150423175015p:plain

MATCH ()-[r]->() RETURN COUNT(r)

f:id:fuyumi3:20150423175126p:plain

せっかくだから次数中心性を出してみる

MATCH (node)-[r:FRIEND]-() RETURN node, count(r) AS degree ORDER BY degree DESC LIMIT 100

f:id:fuyumi3:20150423175758p:plain

次回

次数中心性だけじゃなくて近接中心性や媒介中心性も出してみる

*1:Wikipediaでは「インターネットユーザーがブログ、記事(ジャーナル)、日記を掲載し保持できる仮想共同体の一種」と説明されており、つまりどういうことだってばよ

Neo4jをはじめよう - (1) インストール

最近グラフDBが流行の気配を見せているような気がします。ということでNeo4jで遊んでみようと思いますが、まずは環境構築からですね。

今どき遊び用とは言えローカルマシンに素でDB入れるのは抵抗があるので、VagrantでUbuntu14の仮想マシンを作ってそこに入れます。

仮想マシンの構築

Vagrant自体のセットアップは省略します。Vagrantfileは最低限の設定のみで、こんな感じ。

# -*- mode: ruby -*-
# vi: set ft=ruby :

VAGRANTFILE_API_VERSION = "2"

Vagrant.configure(VAGRANTFILE_API_VERSION) do |config|
  config.vm.box = "ubuntu/trusty64"
  config.vm.network :private_network, ip:"192.168.33.11"
end

ネットワーク経由でNeo4jにアクセスするので、private_networkを設定する必要があります。アドレスは適当に。

Vagrantfileが書けたらうpしましょう。

$ vagrant up

Neo4jのインストール

まずはVMに入る。

$ vagrant ssh

ここから先はVM内で叩くコマンド。

# レポジトリを追加
$ wget -O - http://debian.neo4j.org/neotechnology.gpg.key | sudo apt-key add -
$ sudo sh -c "echo 'deb http://debian.neo4j.org/repo stable/' > /etc/apt/sources.list.d/neo4j.list"

# パッケージリストを更新してインストール
$ sudo apt-get update
$ sudo apt-get install neo4j

ホストOSからもアクセスできるように設定変更

これでNeo4jはインストールできましたが、デフォルトではlocalhostからのアクセスしか受け付けません。

VMではなくホストOSからブラウザや各言語のクライアントライブラリからアクセスするにはリモートからの接続を許可する必要があります。

当たり前ですが本番で何も考えずにリモートアクセスを許可すると大変なことになります。あくまでVMに入れて遊ぶ用の設定ということで。

$ sudo vim /etc/neo4j/neo4j-server.properties

# 下記の行をコメントアウト
org.neo4j.server.webserver.address=0.0.0.0

$ sudo service neo4j-service restart

アクセスできるか確認する

これで、VMに入らずとも手許のブラウザから接続できるようになりました。 お使いのブラウザを開いて http://192.168.33.11:7474/ と叩いてみましょう。

こんな画面が出れば成功です。

f:id:fuyumi3:20150324004650p:plain

次回

PythonクライアントからNeo4jにアクセスし、Twitterのデータを投入してみます。

2015年も1/6が過ぎた

年の初めに目標みたいなのを決めた気がする

2014年のふりかえり&2015年にやること - ふゆみけ〜おかわり〜

いちいち達成できてるかチェックするような意識の高いことはしないが、放置しておくのも気持ち悪い。 基本的な方向性は変わってないが、最近やりたいことが多すぎて発散してきたのでまとめる

  • 統計/機械学習
    • 統プギャ四天王の一角として、統計検定【準】一級に合格する
    • 一級は無理ゲーの予感がプンプンする
      • (試験形式変わったので、統計基礎合格に)切り替えていく
    • 計算力の低さを感じるので、学部レベルの微積線形代数を解きまくる
  • プログラミング
    • 設計の練られた美しいコードを書きたい熱の高まりを感じる
    • 名著を読みたい
    • SICPしかあるまい
      • 今はPythonで教えられてるらしく、テキストも公開されている(もちろん英語だが)
      • でもPythonでやっても自分にとっては旨味がない
      • なのでLISPでよし
      • 読書会やるか
    • いきなりSICPはキツイので、まずはこれを読むのがいいらしい
  • データベース

こんなところでいかがでしょうか


3/1追記

プログラミングの基礎をざっと見たところ、以前読んだプログラミングHaskellとかぶってる内容が多そうだった。 だからもうSICP読み始めちゃってよさそう

『Java言語で学ぶデザインパターン入門』を読んだ&Pythonで書いてみた

リアクティブプログラミングが流行ってるみたいだからちょっとやってみるか、と調べてみたら、Observerパターンとかいうのが出てきた。でもデザインパターンとかわからん\(^o^)/

というわけで読んでみた。ただ読むだけだとつまらないので、JavaのサンプルコードをPythonで書いてみた。

増補改訂版Java言語で学ぶデザインパターン入門

増補改訂版Java言語で学ぶデザインパターン入門

PythonのコードはGitHubに上げてあるので、興味のある方はどうぞ。

who-you-me/design_pattern · GitHub

読んでみて、Pythonで書いてみて感じたこと

外から叩けるメソッドはできるだけ少なくして、意図しない操作をされるのを防ぐべきだよ! みたいなことが何度も書かれていたけど、Pythonだとそこを意識することはあまりない。というか、メソッドや変数のアクセス権についてあまり気を配っていない(少なくとも入門書のレベルでは)ように感じる。

そこはまあ、Pythonに限ったことじゃなくて動的言語全般にある程度共通していることで、「大規模でメンバーの技量がバラバラなプロジェクト/プロダクトは静的言語がよい」「少数精鋭でスピードが重要な場合は動的言語がよい」みたいなことが言われる背景でもあるんだろう。

「コードの一部への変更が他の部分に意図しない影響を及ぼす」のに対処する必要があるけど、静的言語の場合は型に守られてるから安全、一方で動的言語の場合はテスト書いてカバーする必要がある、という区別にも繋がってくる。

なんて、いろいろ思うことはあるけど、名著だけあって身になることが多かった。軽く列挙。

  • 当たり前だけど、クラスの設計って超大事
    • 普段フレークワークを使ってWeb開発してるばかりだと、実はあまり気付かない
  • パターンがたくさんあって、複雑なものもあり覚えるのは難しいけど、こんなのがあるって知るだけでも役立ちそう
    • 何か設計上の問題にぶち当たったとき「あれ、そういえばこんなデザインパターンがあったような…」と気付いて調べられるかどうかでものすごい違い
  • Pythonでちゃんとオブジェクト指向やるためのもろもろがわかった
    • これは本のおかげというよりは、自分で書いてみたからだけどw
    • Python2.6からabcモジュールが追加されて抽象クラスが作れるようになった

技術的負債が溜まりに溜まったコードとお付き合いすることが多いこともあって、最近は最先端技術を追っかけるよりも、「ちゃんとした設計でものを作る」ことに興味が移りつつある。

特にデータモデリングの重要性なんかは痛感しつつあるので、次はこれとかを読みたい。