殺シ屋鬼司令II

世界一物騒な題名の育児ブログです。読書と研究について書いてきました。このあいだまで万年筆で書く快感にひたっていました。当ブログでは、Amazonアフィリエイトに参加してリンクを貼っています。

MENU

査読システムと増えた捏造

いま所属している研究所では研究不正にかかわる講習をうけることが研究者全員に義務付けられている。これはNSFという機関からお金をもらっている機関はすべてそうみたいである。
私の受けたその講習では主に画像処理のかんがえかたとImageJ(というかそのバリエーションのFIJI)というレタッチソフトの使い方を中心に説明を受けた。フリーソフトだから利用者も多いからである。
とりわけ興味を引いたのは、研究画像の不正というのはやはり増えている傾向らしい。それはImageJやPhotoshopを始めとするレタッチ画像処理ソフト*1を利用した、研究画像データのデジタル処理が全面化した時期と相即するのだという。疑わしいと報告され研究画像のうち、1993-1994には4.1%が調査の結果認定されていたのが、2007-2008には68%に増加している、と。

この傾向はたくさんの要因が絡んでいるだろうが、なんといっても画像処理技術が科学に顕著な役割を担っていることがあるだろう。*2
(PDF) Krueger, J. (2009). Incidences of ORI cases involving falsified images. Office of Research Integrity Newsletter, 17, 2–3.

査読でこの不正が検出できないのか。
査読をしたことのある研究者として、捏造を検出する能力が自分にあるかというと、それはやはり難しいと感じる。ある画像と別の画像がということであればまだしも、もっと手が込んだものになってくると到底かなわないなと思う。そしてその手順は膨大になる。つまり、すべての査読者が受理・不受理かかわらずすべての投稿原稿の実験データのあらゆる組み合わせに対して捏造を疑い、一致・不一致を検出するという労力が天文学的になることは容易に知れる。日々ボランタリーで論文不正を暴く、敬服すべき捏造ハンターたちが何人いようと、決して追いつくものではない。そうした人たちもたまたま大きく話題になったものに対して検証をおこなうというのが通常なのではないかと思う。
もとより査読というのはそうしたシステムではなく、本来その論文のおこなう分析の成否を、上から断じるでもなく、下から持ち上げるでもなく、知識の総体を共有する人類の同じ一員としての対等な視点でみるものにほかならない。
Xという主張をD_1, D_2, D_3……というデータがサポートしている、というのが生物学の論文における分析の構造である。査読者はそのサポートが必要かつ充分であるか、言い足りないことはないか、またその限界はどこか、ということを、前から上から下から横から後ろから、たたいてみたり、つねってみたり、ひっくり返してみたり、もんどりうってみたりしながら論じるだろう。
でもそこに、D_1とD_nが同じかどうか(また、別の論文のD'_nと同じかどうか)を確認せよということは、入っていなかった。
なぜか。
端的に言えば査読というのは、というより、査読というシステムが確立する過程で、そうしたことが問題ではなかったということだろう。つまり、画像不正はデジタル処理の全面化したこの15年のこと、一方で査読システムはそれ以前からずっと続いている。デジタル全面化以前は、投稿されたデータはほぼすべてがナマの状態に近かった。むしろその頃に問題であった「捏造」というのは、サンプリングデータの不正操作を中心とした統計処理に関するものが多かったのではないだろうか、と思う。メンデルの例などが有名だろうか。
そこに齟齬がある、それだけなんではないか。
もちろんそれは大きな問題である。ひとつのとりうるみちとしては、査読者に全ての生データを開示することがあげられるだろう。サプリメントとして公開することは煩雑にすぎる。私は個人的にはサプリメントというものがこれ以上巨大化することに対してあまり積極的になれない人間である。そうではなくて、査読用の非公開データとして査読者のみに生データが開示されるということだ。
あらためて強調しておきたいのは、

  1. 画像不正処理の増加は画像データデジタル化に相関して増加しているらしい
    • =おそらく日本の研究業界の問題というものとは少し違うのではないか。査読システムというアーキテクチャにもすでに脆弱性がある
  2. 画像データのデジタル化は、査読時の生データからの距離の増大(データ「鮮度」の低下?)を確実にもたらしている
  3. いそいで付け加えておかなくてはいけないことは、デジタル処理は研究の効率と質を実際スゴイ高めている
    • だからといってもちろん捏造を看過すべきというわけではない。デジタル化を捨てるという愚行・反知性主義に出るのではなく、それをcontainするアーキテクチャを設計すべきである

ということになる。
発覚した不正は、当然論文の取り下げを中心に処分される必要がある。論文の取り下げは、それはそれ自身では不名誉なことではあるものの、最も邪悪であるというわけではない。取り下げは、科学者に残されている最後の救済でもある。取り下げた時点でその論文で報告したことは科学的な知識から一旦なくなるが、もし万が一それが実際に真実だとしても、また堅固な再証明すれば、科学的な知識へと戻れる。これが、人類に共有された知識に対する誠実な態度というものであろう。

*1:いまご指摘をうけ、ImageJは「レタッチ」ソフトではなく画像解析ソフトウェアである。元来「解析」と題して設計されたソフトであるものを結果として「レタッチ」に使ってしまっているのが悲しい現状であり、自分もその思考にとらわれていたことを反省している。 @meta_a1 さん感謝

*2:The trend likely reflects a number of factors including, primarily, that imaging technologies now play a prominent role in science.