科学論から見た「リスク」概念

本稿では、今日様々な領域で用いられるようになってきた「リスク」という概念について、科学論の観点からその性格を明らかにしたいと思う。ただし、それぞれの分野によってこの概念の用いられ方は異なってくる。また、統一的な枠組みを見いだすことよりも、個々の問題について最適な枠組みで対応することが重要となるのは当然のことである。しかし、あまり個別の問題に詳しく立ち入る余裕はない。科学論の立場ないしはそれに相当するような包括的な立場から見たいくつかの概念を紹介しつつ、全体としてのリスクを巡る問題の傾向を明らかにしたい(1)

1.計量可能なものとしてのリスク

リスクは計量可能なものとされる。それはどのようにしてか? 日本リスク研究学会が編集した『リスク学事典』において、リスクは「ある有害な原因(障害)によって損失を伴う危険な状態が発生するとき、[損失]×[その損失の発生する確率]の総和を指す。」(2)と述べられている。したがって、リスクというものは本来、確率論的にではあるが客体として(=客観的に)存在するものであり、だからこそリスクについての科学が成り立つとされてきたのである。すなわち、誰にでも納得がいく評価値としてリスクを算出しようという考え方が、リスク論という領域を作り出した。リスクを科学的に把握可能なものとする「境界設定」の考え方が、リスク論の重要な特徴であると言えよう。このようにして、「リスク評価」(あるいはリスク計算、リスク分析)が可能になってきたと言える。

また、リスクはベネフィット(利得)と相殺しうるものとされる。たとえば、「私たちが車に乗っているのは、交通事故のリスクよりも、車を使うことによるベネフィットの方が大きいと見なしているからだ」といった言い方をすることがある。「原子力発電所の事故の可能性がゼロではないのにそれを使っているのは、それによって得られるベネフィットが十分に大きいからである」という言い方もされる。こういった思考様式は、「リスクとベネフィットのトレードオフ」と呼ばれる(3)。こういった判断がなされるときには、リスクの質的差異が無視されていることになる。また、リスクがベネフィットによって補償可能なものだとされているところに特徴がある。ここには、あらゆる善と悪を一次元の軸上に存在するものと捉えたベンサム流の価値哲学を見てとることができる。

さらに、リスクがゼロということは有り得ないとされる。つまり、絶対的な安全は存在しないとされる。もちろん、現実の社会は、原子力から狂牛病まで「絶対安全」という形の説得が行われてきた歴史的事実に満ちあふれている。しかし、どんなに安全が強調される場合であったとしても、本来はどの程度危険性が薄いのかということしか言えないはずである。それがむしろ本来「科学的」な態度であるとすべきであるということになる。したがって、How safe is safe enough?(HSISE)という問をたてるということが求められてきた。リスク(それは連続的に変化する数字で示される)がどの程度であれば「安心」できるかということが、問題にされてきたのである。

リスク論は、許容量問題と(したがって規制の問題と)一体になって発達してきた。食品添加物も、人工化学物質も、どこまでヒトの摂取、ヒトへの暴露が許されるのかが問題となる。それは、規制を目的とした問である。そういった際に許容量を決めるためには、リスク評価が必要なのである。また、原子力プラント、飛行機、土木構造物、建築物といったものの安全性確保のために、リスク評価が行われてきた。新しい化合物や何らかのテクノロジーの産物を世に出すための保証の制度として、リスク評価は機能してきた(4)。  しかし、こういった定量的なリスク評価には限界があるとされるようになってきた。その際には、リスクの「質」が問われることになる。そういったリスクの質的違いの考察について、次に見ることにしたい。

2.リスクの分類学

リスクは分類される。たとえば、典型的で伝統的なリスク評価手法を述べているルイスは、次のようにリスクを四種類に分類している(5)

これまでのリスク評価は、これらのうちの1をモデルにしてきた。というのも保険事業の登場以降伝統的にそういったリスク計算が行われてきたし、経験則を通じて様々な未知数を取りあえず既知数に変えてきており、したがって上手く計算式に乗せることができ、解答を出せたからである。そして、それと同じような手法で他の種類のリスクも扱うことが考えられてきた。しかし、本当に1のようなリスクへの対処とされてきたやり方が、他の種類のリスクにも通用するのかどうかが問題になってくる。

例えば、4にあたるような人工的な化学物質による健康被害について考えてみよう。私たちの周りには様々な化学物質が(人工的なものも、天然のものも含めて)存在している。しかし、そういった物質のうち、どれがどのように健康被害に影響しているのかという因果関係を明らかにすることは非常に困難である。したがって、個々の物質のリスクを評価することが難しくなってくる。もちろん、物質単独でのリスク評価を実験的な環境のもとで行うことは可能であろう。しかし、そういった実験室レベルでのリスク評価が、様々な環境下でどこまで通用するかはわからない。「複合汚染」は、因果関係を複雑で見通しにくくし、責任の所在を曖昧にする。リスク評価の可能性自体が問題にされることになる。

また、短期的には危険性がほとんど存在しないけれども、後になってから大きな損失を被るケースを考えてみよう。例えば地球規模環境問題などがそれにあたると考えられる。こういった場合にどのようなことが起こるだろうか。しっぺ返しが来るときには自分自身がゲームに参加していないことがほぼ確定しているプレイヤーにとっては、そういったしっぺ返しがあることを無視して行動するのが合理的な選択であろう。しかし、私たちは現実にはそういった行動を取るべきではないと考える。私たちの子孫のことを考えるからである。あるいは、「地球」のことを考えるからである。ここで、リスク評価において評価されるリスクはいったい「誰にとっての」リスクなのかという問題に突き当たることになる。これは、さほど簡単に解決される問題ではない。つまり、一意的な解答を数字で出せるものではないことがわかる。

ルイス自身は1の種類のリスクについて用いられてきた論理を貫こうとしているように思えるが、そういった論理でうまくいかないケースも出てきている。リスク評価に関して新しい考え方が求められるのはそのためである。そういった考え方を紹介しよう。

まず、ペローのnormal accident(正常な事故)という考え方を見てみよう(6)。原子力発電所、石油化学プラント、飛行機、武器などの例をとりあげながら、ペローは、高度に発達した科学技術社会においては、ある事故の責任を特定の原因(特定の人物や特定の器機の故障)に帰することができなくなっている情況を述べる。それがノーマルアクシデント(正常な事故あるいはシステムアクシデント)と呼ばれるものである。事故は起こるものであり(その確率は低いとしても)、そしてそれはシステムの特性としてそうなっているのであるというのがペローの考え方である。個々の部分に関しては安全対策が施されており、多くの場合大したことのないミスが命取りになることはない。しかし、システムの諸部分の乱れが同時に起こり、そしてそれらの諸部分が強く結びついていればいるほど、その乱れは大事故を導くことになりかねない。個々の事故について、それを防ぐ手だてがあったと言うことは後からできるが、しかしそれだからといって事故が起こるものだという特性は変わらないというわけである。

こういった現代技術の特性は、必ずしもペローだけが指摘しているものではないとしても、重要な点であると言えよう。ここでは、これまでの定量的なリスク評価がそもそも通用しないような複雑なテクノロジーが存在し、しかも私たちはそういった新しい意味での危険性をもった社会に生きているということである。

同じように危険性の質の変化を論じて、結果として計量的なリスク評価の限界を示したものにウルリヒ・ベックの「危険社会」という考え方がある(7)。ベックの射程は広く、現在のリスクの問題は、科学技術一般の進展や近代化といった歴史の大きな流れの中で起こってきたものであると見なされる。そして、「リスクの分配」という問題に注目する。そして、どのようにしてリスクを社会の中の誰かに押しつけるかということが、近代の科学技術社会において重要な問題を構成してきたとベックは述べる。

確かに功利主義的なリスク評価は、社会全体としてのベネフィットがリスクを上回るかどうかを考察する。しかしそういった最適化のみを目標にすえた場合、分配の不公正を作り出す可能性がある。それが弱者に対するしわ寄せという形で現れてくることは、十分に考えられる。リスク評価は、そういった不公正を正当化する可能性を秘めているのである。

例えば、医学研究の基礎データを取るための人体実験が、どういった立場の人々に押しつけられてきたかということを思い起こしてみると良いだろう。人体実験は、医療技術の発展のために患者のうちの誰かがリスクを冒すことであると言える。そして、現在では臨床試験と呼ばれている患者を用いた医薬品の試験は、正しい手続きを踏んで行われるべき事になっている。しかし、タスキーギにおいて行われた黒人患者への梅毒研究(8)や日本の七三一部隊における中国人捕虜への伝染病研究や生物兵器研究を目的とした実験などは、研究の成果を得るためのリスクが弱者に押しつけられたケースであると言えるだろう。

したがって、リスク評価は全体として問題を考えるだけでなく、分配の問題にも力を注がなければならないことになる。功利主義的なリスク論に代わって格差原理を持ち込む必要があると言えるかも知れない。いずれにしても、単なる定量的、実証的な評価以外に、評価の「哲学」が必要になってくるのである。あるいはそういった配分問題が明言されるようになったときに、リスクの存在そのものが疑問視されるようになり、そのリスクをもたらしている当該の技術自体が問題視されるようになる可能性があるであろう。分配が不公正であることより、分配の不公正が隠されていることが問題であると考えれば、そういう可能性もある。

ペローはまた、高度に発達した科学技術(と研究)のリスクを次の3つに分類している。(1)考えうる利益を凌駕する不可避のリスクが存在するため、もう明らかに望みのない技術、(2)それなしではやっていけそうにないがリスクを少なくするためには相当の努力が必要であるような技術、あるいは相当の利益が見込まれるので現在ほどではないにしてもそれなりのリスクを冒すべきであるような技術、(3)自動調整が行われるので、きわめて穏健な努力によって改良可能な技術、がその3つである。これらの分類は、リスクとベネフィットとの関係によって行われていると言うことができる。すなわち、明らかにリスクの大きい場合は(1)、明らかに小さい場合は(3)、私たちの対策次第でどちらにもなる場合が(2)である。 ペローによれば、私たちはこのようにそれぞれの科学技術を区分けしていかなければならない。そうしなければ、「何をなすべきか」という問に答えられないからである。

しかしそのためには、それぞれの科学技術を単離して、それぞれを独立に検討し、それらがもたらすベネフィットとリスクとを慎重に秤にかけて比較していくことが重要である。そういったことが可能になって初めて、ペローが述べているような科学技術の区分けが可能になるであろう。実際、核兵器などは(1)の分類に、組換えDNA技術は(2)の分類に属するというように、具体的な分類をペローは提案している。

しかし、こういった議論は本当に可能なのだろうか。組換えDNA技術といっても、その種類はいろいろあるり、工業、農業、医療と、様々な分野で用いられている。したがって、いったいどのような「単位技術」を選んでその危険をはっきりさせていくべきなのか、わからない。結局は非常に個別的な問題なのであって、それぞれの技術を個々の社会的文脈において見なければ、様々な利害の対立を解きほぐすことも、具体的なリスクのあり方を明らかにすることもできないのではないだろうか。

このように考えると、問題は客観的なリスク分析というよりも、社会がそれをどのように捉え、情報を伝達し、どのような態度でそれに望むかという考え方や制度の問題であるともされるようになっていく。このようにして、リスク問題は「事実」の問題から「価値」の問題へと移行する。

3.リスクと社会

まず、これまでよく用いられてきた「リスク情報」という考え方に注目しよう。

リスクは具体的な損害の予測があってこそ計算されるので、そういった損害の予測をしっかりと情報として伝えることが重要になる。こういった情報伝達がリスクコミュニケーションと呼ばれる。そこでは一般に、専門家が情報の送り手であり、非専門家が情報の受け手である(9)。またそれは、リスクの「正しい」認識を要求するものである。「正しい」というのは、単に事実として間違った情報になっていないというだけではなく、リスクを計量可能でベネフィットと相殺可能なものとして扱い、さらに相対的なリスク比較に基づいて合理的な行動をとるという態度の「正しさ」まで含むことになる。また、リスク情報が「正しく」伝えられない場合の一つとして、「リスク認知のバイアス」がかかっているとされることがある。これは、本来は小さいはずのリスクを過剰に大きく見積もるような傾向がある場合などに使われてきた。風評被害とされるものの原因の一つは、ここに求められた。

しかし、リスクを客観的に判断できるのは関連技術の専門家であり、それに対して素人はリスクについて無知であり、したがって「認知のバイアス」をもつ可能性の大きい存在であるというのは、本当に正しい見方なのだろうか。もしこれが正しいのならば、リスクについての正しい情報を確実に伝達することこそが「リスクコミュニケーション」のすべてであるということになる(10)。しかし、それだけではないというのが近年見られるようになってきた主張である(11)。科学の素人は、むしろ独自の価値観から判断を行っているのであり、専門家が無知で不合理だとみなす素人の行動の中に、専門家と異なる価値観を見いだすことができる場合があるとも考えられる。こういった考え方によれば、むしろ問題を理解していないのは専門家の方であり、非専門家の価値観に立った上で、それに基づいて必要な情報を提供するということが大事であるということになる。あるいは、専門家が自分たちの立場から適切であると考える情報を提供することは、専門家自身の立場も同時に押しつけることにつながるとも言える。そういったお互いの立場を知るところから始まるのが、本来のあるべきコミュニケーションであると言えるだろう(12)。そういった対話のあり方が考えられなければならないが、それが非常に困難であることは明らかである(13)

問題が複雑すぎて因果関係の把握が困難であり、したがってリスク評価ができないというケースについてすでに述べたが、そういった場合にいったいどのような社会的システムや社会規範で対応するのかということが問題になってくる。そもそもの数量的なリスク評価のみによるならば、生起確率すら明らかでない場合には、対処のしようがないからだ。考え得る最大確率をもってすれば壊滅的な被害が予想されるが、考え得る最小確率をもってうすれば被害はほぼ無いに等しいと言えるようなケースが出てくるのである。

一つの考え方は「予防原則」(precautionary principle)というものである。これは、地球環境問題においてとりわけ強調されたものであり、この場合科学的な確実性の欠如を対策延期の理由にすべきではないという考え方とされた。たとえば、温暖化問題やフロンガスによるオゾン層破壊の問題など、地球規模の環境問題では因果関係の把握が困難であり、したがって対策の効果についても疑問が生じかねない。しかしだからといって、対策を採らない理由にはすべきではないとするものである。これは、一つの価値観の表明であると言えよう。この原則に従えば、慎重な対処をすることが推奨される。地球温暖化問題について言えば、例えば温暖化に対する化石燃料燃焼の寄与度がはっきりしていないとしても、その使用の抑制は取るべき対策となる。遺伝子組み換え農作物については、将来環境におよぼす影響(生態リスク)やヒトの身体に与える長期的な効果(健康リスク)が十分わかっているわけではないので、人間の食糧の中にそういった技術による製品を急激に大量に持ち込むべきではないということになる。

また、新たなテクノロジーの使用に関しては、新たな原則を作って臨まなければリスク評価ができないという場合がある。そうやって、新しいリスク評価の原則が登場する。例えば、遺伝子組み換え農作物の食品としてのリスク評価の場合に、「実質的同等性」という概念が用いられるようになった。これは、組換えDNA技術を用いて作られた新しい品種の農作物について、その安全性を評価するには、(成分組成が元の種と大きく異なっていない場合)元の品種自体の安全性と組み換え技術によって生じた違いの部分の安全性を評価すれば足りるという原則である。しかし、この原則に基づいてリスクを評価することが十分であることの証明はなされていないし、またなされることもない。したがって予防原則からすれば、こういった新しいリスク評価法は受け入れるべきでないということになろう。他方で、新たなテクノロジーの使用を推進することが様々な問題に答える鍵になるであろうという、テクノロジー使用に対するポジティブな姿勢に立てば、むしろ新しい評価法に挑戦することが望ましいとされるであろう。いずれにしても、それは価値観の問題となる。このように、立場の違いから正当なリスク評価方法に対する見方の違いが生まれてくる(14)。こういった立場の違いが、社会的な立場や利害関係の産物であることは当然である。

先に述べた、「誰にとってのリスクなのか」という問題は、世代間の倫理という考え方につながる。世代間倫理は、再生可能資源の使用や、地球規模での環境破壊の問題について考えられてきたものであり、人間は将来の人間の生存についても責任を負っているという考え方である。この考え方は、考えられる現時点でのリスクが十分小さいことを、その選択肢を受け入れることの十分条件としないという点で、より慎重な対処を要求する原則である。しかし、ここでもまた将来の世代をどの規模で考慮するのかといったことが問題になるし、将来の影響に関する評価というものがいっそう困難であるという問題点も出てくる。  このように問題の主体が誰であるのかということが問題になると、さらにそもそも何を問題とすべきかということが問題になってくることもまたわかるであろう。リスクとベネフィットを考慮する際には、問題の枠組みを限定しなければならない無限のファクターを考慮するわけにはいかないからである。しかし、そういった枠組み設定は恣意的になされうるのである。リスクについての現在の議論は、このようにその評価手法の問題に止まらず、評価の原則に関する議論になっているということができるであろう。リスク評価とは、事実に基づいた推論を争っているようでありながら、その背後にある価値観の争いである場合が多い。そのことを十分に考えなければならないだろう。

4.終わりに

リスク論が、どこまでのリスクを取ることができるかを計算して求めることで、結果的に問題のあるテクノロジーを許容する言い訳になることがあったであろう。あるいは、リスク認知のバイアスという形で、素人の価値観に基づいたリスク評価を修正するように迫ったという弊害もあったに違いない。リスク論が、原子力プラントの安全評価といったところに用いられてきており、むしろ「危険な技術」にゴーサインを出すことに貢献してきたという歴史的事実も見逃すことはできない。そうしなかった場合との比較は容易ではないが、リスク計算が発達することで、結果的に損害を増やしてきたのではないかという考え方もありうる。

しかし、リスク論は、これからも重要な役割を果たすものと考えられる。リスク評価という「イデオロギーをもった算数」をどのように育てていき、その限界をどこに定めるかが課題である。また、様々な価値観を見極めつつ議論を進めることである。リスク計算モデルの改良や、複雑な計算を可能にする計算手法の開発や、意思決定法の合理的定式化といったことが、そういった価値観の見極めを骨抜きにする可能性をもっていることも忘れてはならないだろう。

(1)本稿は、拙稿「リスク概念の科学論的検討にむけて」(『工学院大学共通課程研究論叢』三八巻一号(二○○○)一ー一三頁)をもとにしている。

(2)日本リスク研究学会編『リスク学事典』(TBSブリタニカ、二○○○年)一六頁。

(3)この「トレードオフ論」を強調する論者に中西準子がいる。氏の主要著作は『環境リスク論 技術論から見た政策提言』(岩波書店 一九九五年)、ウェブページはhttp://www.kan.ynu.ac.jp/~nakanisi/

(4)一般に科学技術に関わる「規制」というものは、それなしではそのテクノロジーの使用が社会的に許されないものであり、したがってそのテクノロジーを縛るものというより、樹立ないし推進するものとして存在しているのである。

(5)H・W・ルイス『科学技術のリスク』宮永一郎訳(昭和堂、一九九七年)。原著は、H.W.Lewis, Technological Risk, W.W.Norton, 1992(1990).

(6)Charles Perrow, Normal Accident : Living with High-Lisk Technologies, Princeton University Press, 1999.

(7)ウルリヒ・ベック『危険社会 新しい近代への道』東廉/伊藤美登里訳(法政大学出版会 一九九八年)。原著は、Ulrich Beck, Risikogesellschaft:Auf dem Weg in eine andere Moderne, Suhrkamp Verlag, 1986.

(8)金森修「タスキーギ梅毒研究の射程」『科学医学資料研究』第二九巻第四号 二○○一年四月一五日 三九ー五○頁。グレゴリー・ペンス、宮坂道夫・長岡成夫訳『医療倫理2 よりよい決定のための事例分析』(みすず書房 二○○一年)原著は、Gregory E. Pence, Classic Cases in Medical Ethics : Accounts of Cases that Have Shaped Medical Ethics,with Philosophical,Legal,and Historical Backgrounds, McGraw Hill College Div Published 1999.

(9)吉川肇子『リスクとつきあう』(有斐閣 2000年)

(10)たとえば、Daniel M.Byrd & C. Richard Cothern, Introduction to Risk Analysis, Government Isntitutes, 2000. のリスクコミュニケーションの扱いには組織論的な観点が欠如している。

(11)PUS(Public Understanding of Science)という分野の研究(あるいは「考え方」)が存在している。

(12)日本で最初に行われたコンセンサス会議が「遺伝子組み換え作物のベネフィットとリスク」をテーマにしたものであったことは象徴的である。コンセンサス会議自体の意義と限界については、また別途議論が必要であろう。とは言えリスクコミュニケーションについては、その内容だけでなく、誰が、どういった資格で、どのようにそれを行うのかという「制度」や「組織」の問題が重要になってきていることは確かである。

(13)原子力発電所の立地に際して公開ヒアリングがアリバイ的に行われてきた歴史などを想起すれば、この難しさがわかるであろう。しかし、どのようにしてこの困難を解決すべきなのかという問題は成立する。たとえば、Paul C. Stern & Harvey V.Feinberg ed. National Research Council, Understanding Risk : Informing Decisions in a Democratic Society, National Academy Press, 1996. ここでは、リスク分析の手法の正しさのみならず、参加者が誰かということ、どのようにして議論が行われるかということまで踏み込んで考えるべきであるとされる。

(14)ここで十分に紹介する余裕はないが、伝統的なリスク論の立ってきたこういった立場を、挑戦的で、アメリカ的な姿勢として批判的に位置づける技術論の研究に、ラングドン・ウィナー『鯨と原子炉−技術の限界を求めて』吉岡斉・若松征男訳(紀伊國屋書店、2000年)(原著は、Langdon Winner, The Whale and the Reactor:A Search for Limits in an Age of High Technology, The University of Chicago Press, 1986.)がある。

『情況』2001年1/2月号、pp.42-51.(雑誌本体ではうまく入らなかった校正を入れ直しました。)