リスク概念の科学論的検討にむけて
 
林真理
 
Concept of Risk : from Science Studies Point of View
 
HAYASHI Makoto
 
1.本稿の位置付け
 
 本稿では、科学論的な観点から、リスク分析あるいはリスク評価について論じる。ただし、初めに次の2つの点を指摘することで、本稿の限界を指摘しておきたい。
 まず、リスク概念は幅広いので、必然的に対象を限定せざるをえない。リスク概念は、環境科学(1)、経済学(2)、経営工学(3)、公衆衛生学(4)、(食品などの)安全性の科学(5)、原子力工学(6)など様々な分野において、それぞれの意味および文脈で用いられており、したがってきわめて多様な概念であると言える。また、科学論的な観点からすると、ある科学技術(あるいは科学技術一般)の採用の是非およびその採用によって生じるリスクといったことが主要な問題を構成する。そのため、ここで行おうとしている考察は、上記のすべての領域をカバーしようとする意図はもっていない。可能かつ必要な限りにおいて様々な領域を視野に入れようとはしたが、必ずしもすべての領域に当てはまる議論になってはいないであろう。また、言及することが可能であった領域においても、教科書的で主流の見解に触れることができただけという場合がほとんである。しかしながら、そういった限界の上で、一般論として、科学論的な観点からリスクというのはどのような点に注意して考察すべき概念であるかについてある程度のことは言えたのではないかと思うし、またこの概念が内包している問題点の一端を明らかにすることができ、考えるべき方向を示唆することもできたのではないかと思っている。さらに別の領域について検討を加える試み、またここで取り上げた領域についてもさらに深く考察する試みが必要であることは言うまでもないであろう。
 次に、方法論的な限界がある。というのも、科学論的な視点といっても様々であるからである。ここでは、実際に考察され、用いられているリスク概念の意味あるいは用法を問題にすることが目標である。ただし、統計学的な手法によって文献を網羅的・総合的に分析するのではなく、むしろ思想史的な「古典の読み込み」の手法を用いる。ちなみに、前者が調和のとれた客観的分析を提供するが、後者は一点突破型の切り込みによって重要な側面を見せることを目標とする。前者には重要な観点を見逃しがちであるという問題点があるが、後者もバランスを欠きかねないという欠点を持っている。本稿の段階では、個々の分野の事例を取り上げてこういった分析を行うところまでは至らない。これまで行われてきたいくつかの総括的なリスク概念の分析を比較検討し、そういった分析に必要な視点を抜き出し、それを通じてリスク概念の検討を行う際に重要となる切り口を見つけることがとりえあずの目標として設定される。したがって、本稿では、本稿と同じようにリスクという問題を比較的一般的なものとして扱ってきた幾つかの先行文献を論じる。そういった観点に基づいていくつかの分野におけるリスク概念の分析を行うこと、そういったリスク概念が共有する問題点について論じること、は別の稿での課題としたい。
 リスク概念は、これまでも科学論あるいは技術論の対象となってきた。それは、科学技術の巨大化、複雑化、広域化などがもたらす副次的な問題点とされただけでなく、その本質的な問題点であるともされてきた。前者のように考えられた場合には、それは科学技術の発達に伴って生じた解決すべき問題の一つであると見なされ、様々な技術的工夫とそれを補助・支援する制度的改善が求められることになった。また、個々のケースごとに対応されるべきものとされた。実際、とりわけアメリカ合衆国で出版されたリスク分析、リスク評価関連文献の数は非常に多い。政治的意思決定が求められる場合、単に安全性の評価が求められる場合など様々な場面でリスク分析が用いられてきたからである。しかし、後者のように見なされた場合には、まさに科学論的な考察こそが重要であるとされる。リスクこそが現代の科学技術社会の本質を表現する鍵概念であるとされ、またリスク管理こそが科学技術と民主主義の調和を示す試金石であるとされ、また単なる技術的なレベルを超えた次元の問題として定義しなおされ、また技術批判の文脈でも語られた。ここではこういった後者のようなラディカルな検討について振り返ってみたい。他方で、リスクを副次的な問題と見なす傾向は、個々の領域内部でのリスク扱いの作法を導くことになった。それについては、稿を改めて「リスク評価の現象学」として扱うことにしたい。
 
2. 巨大科学技術とリスク
 
 一口に科学技術のリスクといっても、それをいくつかのタイプに分けて考えることが可能かつ必要であろう。危険性の予想がどれだけ明らかになっているのか、どれほどの規模の危険性があるのか、これまでの諸技術における経験が生かされるような技術なのかそれともまったく新規な技術なのか、またリスク管理のシステムが緩やかなのか厳格なのか、といったことが問題になる。しかし、中でも重要な区別として、化学物質の発ガン性のように被害の原因となる物質に私たちが常にさらされているようなリスク、直観的な表現を用いればジワジワと迫ってくるタイプのリスクと、それに対して稀な確率で生じる巨大工場の大事故のようにそれまではほとんど直接の危険性がなかったにもかかわらず、あるとき突然私たちに降りかかってくる災害が想定されるようなリスクという区別を挙げることができるであろう。前者を「蓄積型」のリスクと呼ぶとすれば、後者は「突発型」のリスクと呼ぶことができる。
 科学技術の巨大化、高度化の進展に伴って問題にされてきた型のリスクは、後者のようなものであった。とりわけ、人類を何回も壊滅させることができる量の核兵器を保持する大国が冷戦状態にあり、またそれに伴って他国も高度な軍事技術を発達させていたときには当然そういった兵器の脅威が問題になったであろう。また、冷戦構造の崩壊と同時に敵国からの攻撃の危険性に代わって危険な兵器を自国が保持していることの危険性という、それまでは目立たなかった新たな観点までがクローズアップされることにもなった。
 ロイド・デュマは、その力作『致命的な傲慢さ』(7)において、いろいろな科学技術のもたらすリスクについて具体的に述べている。たとえば、テロリストや偶然の事故などによって、大量虐殺兵器が本来の意図に反して用いられることを危惧する。そういった考察の結果次のような段階的なリスク回避の手続きの主張を行う。大規模な事故による災害を防ぐためには、まず(1)大量破壊兵器の廃絶、次に(2)新しくより効果的な防衛戦略を考える、そして(3)他の危険な技術を代替技術で置き換える、それから(4)核物質、有毒化学物質の廃棄物という遺産と向き合う、といったことが順に必要であることを訴える。政治学者である著者が主に考察の対象としているのは冷戦の遺産であり、したがって基本的な研究対象はアメリカのような軍事大国におけるリスク管理であることは確かである。しかし、そこで行われているリスク問題に関する指摘には学ぶべき点がある。
 ここでは、「リスク」と「不確実性」(uncertainty)という2つの概念が、混同されがちではあるが区別されるべきであるということが強調される。起こりうることのリストとそれらの生起確率が知られているとき、それをリスクと呼ぶ(8)。したがって、起こりうることに関する無知あるいはそれらの生起確率に関する無知こそが「不確実性」ということになる。しかし、複雑な技術の問題改善のプロセスは、コンピュータプログラムが何度も計算器上で実行されることを通じてデバッグされて改良され満足のいくものになっていく過程に準えられる。つまり、実際にそれを走らせてみなければ問題点ははっきりしないとされる。したがって、科学技術のリスクは、多くの場合十分に理解されず、不確実なまま実際に社会において使用されているということになる。すなわち、リスクを分析、評価しようと試みても、結果も可能性も十分に把握されていないという点で、それは十分にはなされえない。したがって「不確実性」しか存在しないということになるであろう。
 しかし、そもそも「確率」とは私たちの無知を表現したものに過ぎないというラプラス以来の考え方を思い起こす必要があるであろう。起こりうる事故がどのようなものであるかについてはもちろんあらかじめ十分に知ることはできないが、その規模を被害額などの数字で推定すること、またそういう規模の事故の発生確率として何らかの数字を当てることは不可能なことではない。その数字にどれほどの根拠があるのかということは別にして、想定しうる範囲内でそうすることはできないわけではないし、実際にはそういうことが行われている。その意味で、不確実性とリスクの区別はそれほど明確なものではない。私たちは、不確実なことについてこそ統計的・確率的手法を用いるのだからである。
 他方で、そういったリスク計算のあり方自体が無意味になる場合もあるという議論はありうる。たとえば、極端なケースであるが「非常に小さな確率でしか起こり得ない大事故」というものについて考えてみよう。事故の規模が破滅的に大きいとき、その規模がさらに何倍かになってもその数字の上昇は意味があるものではないだろう。その数字に生起確率を乗じて得られる値についても同様である。リスクと言われる量的な数値が、結果的に有意味に見え、他のリスクと比較可能になっているとしても、それが実際に私たちに対してもつ意味はまた別なのではないだろうか。技術の有限性(原子力発電所にも寿命がある)、人間の寿命の有限性などを考えると、こういった事故の計算にはほとんど実感としての意味がないと言えるものになるだろう(9)。このことは一例であるが、リスク計算のはじき出す数値が私たちにとってもつ意味は、決して単純なものではないということは言えるであろう。
 デュマは、専門家によるリスク評価が前提としている価値観を分析しようとする。そして専門家の考え方を定量的な見解、非専門家の考え方を定性的な見解として対照し、前者より後者の方がより科学的な根拠をもっているという理由はないと述べる(10)。ここには重要な問題が含まれている。それは、リスクとベネフィットの分析というリスク評価の基本的な考え方に対する疑義にもつながる。考えられる被害の期待値をベネフィットの予測値と比較して選択肢を決める(これが専門家の考え方とされる)というのは一つの考え方である。しかし、考えられる被害をできるるだけ小さくするという選択の仕方(11)(これが非専門家の考え方であるとされる)も、もう一つの合理的な考え方であると言える。私たちは、合理的な選択をしたいと思っているし、そのために情報を集める。そして、不確定な情報下で行われる合理的な選択とは何かについて、私たちは必ずしも意見の一致を見ているわけではない。そこに一つの問題があると言えるだろう。
 
3.リスクの広範な理解=リスク社会論をめぐって
 
 次に、巨大科学技術からさらに対象を拡げて、私たちの生活に浸透している様々な科学技術のリスクを考えようとする、リスク社会論とでも呼ぶべき議論を取り上げる。
 計量的なリスク評価に基づくリスク社会論の一例として、ペローの『ノーマル・アクシデント−ハイリスクテクノロジーとともに生きる』(12)がある。原子力発電所、石油化学プラント、飛行機、武器などの例をとりあげながら、ペローは、高度に発達した科学技術社会においては、ある事故の責任を特定の原因(特定の人物や特定の器機の故障)に帰することができなくなっている状況を述べる。それがノーマルアクシデントあるいはシステムアクシデントと呼ばれるものである。事故は起こるものである(その確率は低いとしても)、そしてそれはシステムの特性としてそうなのであるというのがペローの考え方である。個々の部分に関しては安全対策が施されており、多くの場合大したことのないミスが命取りになることはない。しかし、システムの諸部分の乱れが同時に起こり、そしてそれらの諸部分が強く結びついていればいるほど、その乱れはカタストロフを導くことになりかねない。個々の事故について、それを防ぐ手だてがあったということは後からできるが、しかしそれだからといって事故が起こるものだという特性は変わらないというわけである。こういった現代技術の特性は、必ずしもペローだけが指摘しているものではないとしても、重要な点であると言えよう。
 高度に発達した科学技術(および研究)について、ペローはそれらを3つに分類する。(1)考えうる利益を凌駕する不可避のリスクが存在するため、もう明らかに望みのない技術、(2)それなしではやっていけそうにないがリスクを少なくするためには相当の努力が必要であるような技術、あるいは相当の利益が見込まれるので現在ほどではないにしてもそれなりのリスクを冒すべきであるような技術、(3)自動調整が行われるので、きわめて穏健な努力によって改良可能な技術、がその3つである。これらの分類は、リスクとベネフィットとの関係によって行われていると言うことができる。すなわち、明らかにリスクの大きい場合は(1)、明らかに小さい場合は(3)、私たちの対策次第でどちらにもなる場合が(2)である。
 ペローによれば、私たちはこのようにそれぞれの科学技術を区分けしていかなければならない。そうしなければ、「何をなすべきか」という問に答えられないからである。しかし、そのためには、それぞれの科学技術を単離して、それぞれを独立に検討し、それらがもたらすベネフィットとリスクとを慎重に秤にかけて比較していくことが重要である。そういったことが可能になって初めて、ペローが述べているような科学技術の区分けが可能になるであろう。実際、核兵器などは(1)の分類に、組換えDNA技術は(2)の分類に属するというように、具体的な分類をペローは行っている。
 しかし、組換えDNA技術は一枚岩ではない。工業的に用いる場合、農作物に用いる場合、医療目的で用いる場合では、それぞれ得られるものもリスクの質も異なってくるだろう。それらをまとめて一つのものとして考察できると言うことはできないであろう。このように多様な技術に関して言えば、(1)にも(3)にも属していないのは明らかなことではないだろうか。(2)に属するとしても、どの程度用いて、どの程度規制するかという非常に重要な問題(それこそが最初から問題であった!)は残るのではないだろうか。
 次に、このペローによるものとは非常に対照的な議論として、科学技術社会において生じているリスクを単なる「危険」とは概念的に違うものであるとしたベックの議論を取り上げてみたい。ベック(13)は、貧困こそが重要な問題を構成していた近代の始まりにおいては「富の配分」が社会的な課題であったが、他方で近代化の進行した私たちの社会においては、科学技術が作り出す「危険の分配」の問題が生じていると論じる。「近代化過程が進んだ場合、構造的に付随して生産される危険をどうしたら阻止し、無害とみせかけ、脚色し、誘導することができるのか」(14)ということが新しい課題となってきている。
 このように述べるとき、ベックは近代化(というより科学技術の進展)とともに、人間社会における「危険」が新しい領域に入っていることを暗黙の前提にしている。それは、天災による危険や、私が無差別殺人者によって殺される危険というような、近代以前からあったような危険とは別種のものであり、したがってその差異に基づいた考察が必要であるということになる。しかし、リスク分析やリスク評価といった考え方はその点にあまり配慮していない場合があると言えるだろう。たとえば原子力のリスク問題にも関与したアメリカの物理学者ルイスが次のように述べているとき、そういったリスクの本質的な違いをあまり意識しているようには思えない。
 
リスクは必ずしもいつも悪いわけではないのである。人間の進歩はリスクなしには不可能である。自転車に乗ることをどのように覚えたかを思い出してみればよい。もっと大きな観点から言えば、進化は種を強化するためのさまざまなリスクへの挑戦なしには不可能である。(15)
 
このように述べるとき、ルイスは環境からくる淘汰圧という不可避の危険をも「リスク」として扱っているが、科学技術におけるリスクとは、その技術をとることもとらないことも可能であるような種類のものであるからこそ、その選択の決断のために評価が必要になってくるもののはずである。自然災害のリスクはすでに「ある」。それに対して科学技術によるリスクは、私たちの選択によって生じる。しかし、ここではリスクがあたかも「天災」のように扱われる。科学技術の発展がやむをえないものとして見られているようでもある。そうではなくて、リスクが科学技術そのものを深く問い返すべき問題を(さらにベックの場合には近代そのものをということになるのではあるが・・)構成しているというのがベックの主張である。
 ベックはリスク社会をもたらすテクノロジーの問題を、技術それ自体の問題というよりも科学の問題として論じているのが特徴である。しかし、科学は自らが生産した問題に取り組まなければならなくなり(自己内省的科学化)、科学による真理認識の独占の解体を導き、科学に対する信頼が失われていると論じる。ここに至って、単に工学的な発想では済まない、価値観の問題が登場する。
 
4.リスク分析、リスク評価の社会性
 
 ベックは、次のように述べて、社会の力学がリスクの概念に反映されることを示唆する。
 
危険を除去することと、危険をビジネスにすることとの間や、危険の定義を生み出すことと、危険の定義を受容することとの間に存在する緊張関係は社会的な行動のすべての領域にわたって見られる。(16)
 
すなわち、リスクの問題に関しては、客観的な判断ができるわけではなく、その定義づけ自体が問題になるというわけである。さらに、ベックは、専門家集団の振る舞いについて悲観的であると同時に批判的である。近代化を導いた啓蒙主義者たちの末裔である科学の専門家は、真実を明らかにし、人々に正しい知識を提供することをその使命としていると自覚しているため、人々を技術の社会的受容へと導くことを目標として行動し、自分たちが持っている哲学に無自覚になってしまうということである。このことをベックは次のように述べている。
 
国民一人ひとりのイメージは、まだ十分に専門知識を有していない素人技術者ということになる。こういう人間には技術に関する詳しい知識を与えてやればよい。そうすれば、専門家と同じように、技術が操作可能なものであり、危険といっても本来は危険でない、と考えるようになるだろう。大衆による反対、不安、批判、抵抗は純粋に情報の問題なのである。技術者の知識と考えを理解さえすれば、人々は落ち着くはずである。もしそうでないとしたら、人々は救いようもなく非合理な存在である。しかしこの見解は誤っている。たとえ、高等数学を駆使した統計や科学技術の装いがほどこされてはいるといっても、危険について述べる場合には、われわれはこう生きたい、という観点が入ってくるのである。(17)
 
 リスク分析およびリスク評価に対しては、技術の発達・複雑化とともに狭い意味での「計算可能性」が小さくなっていくのと同時に、様々な分析・計算手法の発達に応じて「評価可能性」が増加していくという現象を取り上げている。評価が研究の一部になっていくことの問題点が指摘される(18)
 このように様々な点で、科学の現状に関する批判をおこなっているものの、ベックは(そういうものが本当にあるとして)真の意味での「啓蒙の精神」が回復されることを願っており、また民主的な手続きによってリスクのコントロールが可能になるという希望をもっているようである。とはいえ、それがいかなる道をたどってなのか、ということは明確ではない。しかし、少なくともリスク分析およびリスク評価といったものが、科学的な意識、民主的な意識を形の上では反映しているということは反省されなければならないであろう。
 リスク評価・リスク分析の社会性について、もっと具体的に論じられる場合もある。日本において社会的に最も重要で広範な話題になった安全性問題は、原子力技術を巡るものであったと言ってよいであろう。放射能に関する意味での「許容量」という概念を、科学的なものというよりは社会的なものとして認め、利益と損失の分岐点でると見なしたのは武谷三男であった(19)。この許容量という考え方の前提には、損失であるところのリスクが(少なくとも確率・統計的な意味で)計算可能であるということがある。
 他方で武谷は、企業を利潤追求の姿勢を見せ、公共という考え方に立たないものと見なし(「利潤の側」という表現が特徴的である)、数字のレトリック、都合の良い論理、実験結果の隠蔽やごまかしなどによってそのリスクの大きさを小さく見せようとする試みが行われるであろうことを予想する。そして、そういったリスクを客観的に評価するための組織とそこで貢献できる科学者が求められるということになる。
 しかし、武谷によれば、そういった安全性評価の歪みは、その評価者の「立場」から必然的にもたらされるもののようである。このことは次のように述べられている。
 
安全を考える場合、いつも日本では、まず実施側のいわゆる専門家とか専門技術者たちの意見が、一番よく知っているという理由で大事にされ、彼らの“立場”ということは問題にならない。これが日本の安全問題の最大の欠点である。安全という問題には“公共”の立場に立った人が当たらねばならないのである。現代の安全の問題の中では、いつも“公共・公衆の立場”と“利潤の立場”の二つが対立している。したがって安全を考えるには、公共・公衆の立場に立つ人の意見が尊重されなくてはならない。(20)
 
 また、水俣病などの事例から、危険性が実証できないから技術を用いることは仕方がない(それを制止することはできない)という判断が問題を引き起こしかねないものであることが述べられる。これは、十分な安全性が証明できないことをもって、技術の使用を禁止または制限しようとする「予防原則」の考え方である。この考え方も、リスクに関係する一つの価値観の現れであると言えよう。
 リスク分析という客観的な手法は存在する。しかし、それをどう評価するかという際には、さまざまな価値観が入ってくる。立場の違いは、ベネフィットの評価の違いに結び付くであろう。また、最適化すべき変数は何かということも変わりうる。それは様々な立場があるからである。そういったリスク分析、リスク評価の社会性および価値依存性は見逃すことはできない(21)
 
5 ラングドン・ウィナーによる技術批判の哲学
 
 最後に取り上げるウィナーは、1970年代までの科学批判世代を代表する「技術の哲学」の専門家である。多くの科学批判論者は、科学技術とその成果に対して「ノー」を突きつけ、その理由を科学技術の非人間性や逆説的、抑圧的、差別的な性格といった観点から論じてきた。そういった科学批判は、有害物質の垂れ流しから起こる地域的な環境破壊などの問題を企業責任の追究や排出物規制などの制度によって解決していく社会の方向に沿ったものであったようにも見える。たしかに、環境の固有の価値、技術者の責任といった様々な観点が、科学批判という大きな運動の中で熟成されてその後に生かされている。しかし、そういった形の新しい科学技術の流れに対して、それらは矛盾を取り繕うものに過ぎないとして、さらに批判の対象にしてきた論者たちも存在している。ウィナーはそういったラディカルな科学批判論者の一人であると言えよう。ここでは、その『鯨と原子炉』(22)について論じ、そこから極めて示唆的な観点を取り出してみたい。
 とりわけここで問題にしたいと思っているリスク分析およびリスク評価に関して、ウィナーは次のように述べている。
 
「どのように安全なら、十分に安全なのか」という質問に答える試みには、強い社会的・経済的利害関心が入り込んでいる。こうした課題のさまざまな側面に関する専門家の証言はしばしば、彼らが何を知っているかではなく、むしろ彼らがだれを代表しているかによって、決まってくるのである。実際、政策課題を定義するための共通のやり方として、「リスク」を導入することそれ自体が、中立的な立場からかけ離れている。(23)
 
 ここでウィナーが主張していることはいったい何だろうか。科学技術一般に対しての批判者であるウィナーは、リスク管理によって科学技術の暴走を制御すること、あるいは技術自体の使用の是非まで検討の対象にしようとすることまでも、その批判の対象にする。リスク評価は本来ならば社会関係から中立的であるべきだが、そういった理想的なリスク評価は実現されないのではないかというのが、ウィナーの言いたいことなのであろうか。
 たしかに、そういった理想的な評価が容易には実現し得ないだろうという主張には意義をはさみようがない。しかし、ウィナーのこの主張には次のような危惧を感じる。それは、中立的なリスク評価が理想的であり、したがってそれ以外のリスク評価には意味がないとウィナーが考えているのではないかという危惧である。考慮されるべきは、むしろその評価をできる限り理想的なものに近づける社会関係のあり方ではないのだろうか。そして、理想的な意味での中立ではなくとも、できる限り私たちが納得できるような意思決定のやり方のもとにその評価を置くことではないのだろうか。ウィナーは、社会関係を所与のものとしており、変数として捉えていないように思える。
 他方で、ウィナーは、排出物管理の技術や安全性管理の技術それ自体の性格についても疑問を呈していると言える。ウィナーは「リスク論争ではまさにその論争に参加するという行為自体によって、ある種の社会的利益が損なわれることが予期できる」(24)と述べている。このことが示唆することの1つは、リスクがあるならそれを計算、制御していくことが必要であるのでそうしなければならないという命法とそれに従って実際になされたことが、さらにリスクをとることを可能にするのではないかということである。また第2に、様々な社会的なセクターや立場の人々がリスク論争に加わったというまさにその事実が、リスク分析そしてリスク評価の客観性あるいは公共性を高めているかのように誤解されるということであろう。
 もう一つウィナーの指摘するポイントをはっきりさせておきたい。それは、アメリカ社会に固有の価値観と関連することである。ウィナーによれば「リスクを選ぶことを戦士の徳の一つとして信奉する強い心的傾向がある」(25)。「予防原則」が一つの価値観であると同時にこのような(あえて名付ければ)「冒険原則」あるいはフロンティア精神というものも一つの価値観である。問題は、そういう価値観の争いになってきているということであり、そこではどちらかを支持するかという客観的な基準はないということになる。
 
6. まとめ
 
 これまでのリスクをめぐる議論によって明確に指摘された、あるいは示唆された、あるいは逆説的に明らかになってきたポイントを以下でまとめる。
 1点目はリスク分析、リスク評価の社会性という問題である。リスク分析自体は単なる計算に過ぎない。しかし、数字という一見客観的なものにも社会性は潜みうる。まず、これらの数字が単に科学技術そのものの性質によるとは言えないだろう。どのような場面で用いられる技術か、どのような人物あるいは組織が用いるのか、どのような政治・経済体制のであるのか、といった付帯的条件によって被害の起こりうる確率は変わってくるであろうし、起こりうる被害の種類すら違うかも知れない。そういう意味で、リスクの評価は、技術に固有の性質のみを用いて導かれるのではないことが容易に認められるであろう。また、それだけでなく、誰が、どのような形で、誰の資金を用いて、何のためにリスク分析、リスク評価を実行するのかということが問題となることにも注目しなければならない。リスク分析という唯一客観的な科学的手法があるわけではなく、それは様々な社会関係に影響されて成立しているものであると考えられる。ただし、実際にこの点を明らかにするためには、リスク分析という手法の歴史を見なければならないであろう。
 次に、リスク分析、リスク評価自体の担っている価値観という問題がある。何をベネフィットと考えるのか、不確定情報化での合理的意思決定とは何か、「予防原則」と「冒険原則」はどちらが正当なのかといった対立が存在する。あるいは、リスク分析によって同じ程度に危険であるでとされたものに対して、私たちは主観的にも同等であると評価できるだろうか。恐らくそうではないだろう。
 実際に、こういったリスクの主観的評価については、社会心理学的な観点から研究がなされており、私たちがあるリスクについて過剰に評価して忌避行動をとっていると理解される場合や、別のあるリスクについては過小に評価しているとしか思えない行動をとっている場合があるということが論じられている。
 ただし、こういった事態は、素人による「リスク認知のバイアス」(26)といった捉え方をされる場合がある。しかし、リスク計算の結果を唯一の科学的に疑いのない真実と見なし、それを市民(あるいは一般大衆、素人、庶民)がどのように受けとめるかは主観的な解釈に過ぎないとするのは、社会科学方法論上問題があると言えるだろう。こういう捉え方は、専門家が(そして彼らだけが)リスクの客観的な理解者であるという素朴な前提に基づいたものである。ここで「バイアス」と呼ばれている現象は、むしろリスクの評価に関する価値観の対立としてみるべきではないだろうか。通常のリスク分析こそが唯一のリスクの客観的な評価の手法であるという考え方こそが、あるバイアスに侵されているとさえ言えるだろう。
 また、このようなリスクの主観的評価に関する研究は、どのようにしたらリスクある技術を社会に受け入れさせることができるかという課題にも答えることも可能にする。たとえば、リスク管理が効果的になされているという確信を人々が持つことが大事であるといった社会心理学的な分析が行われる(27)。しかし、問題はいわゆるリスク分析を判断の1つの手段として認めるべきかどうかというところにまでさかのぼって考えられるべきものではないだろうか。
 3つめに、リスクの新しいあり方が挙げられる。すでに述べたような「蓄積型」と「突発型」という区分を用いるならば、今後は前者のようなリスク管理が問題になって行くであろうと考えられる。これまで、核開発などにからんで多くのリスク管理手法が用いられてきた。他方で、Y2K問題や環境ホルモン問題に見られるように、そこかしこに浸透しており徐々にその浸透度を拡大していくような技術に対して、私たちはあるとき突然気づかされ、大規模な対策を立てざるをえなくなっているという事態が起きている。
 これまで、巨大技術は、封じ込めることで比較的しっかりと管理されてきたと言えるだろう。ここで言う封じ込めとは、まず物理的なものでもあり、また外部に情報をもらさないということでもある。管理すべき「閉鎖系」を作り上げて、その内部で起こりうる危険性について考察すればよいとう形をとってきた。しかし、そういうリスク評価のシステムは「蓄積型」の問題に関しては通用しないであろう。それらは、広範囲に及ぶものであり、閉鎖的ではないからである。
 4点目は、総合的なリスク評価という考え方が欠如しているということである。私たちの社会では次々に新しい技術が提案されていく。そして、私たちは個々の技術がそれぞれの利得に見合った程度のリスクしか招かないという判断によって、その技術を認める。そして、そういうことを重ねていく。それは、私たちが無限の豊かさのために最後は命を差し出すということを意味しているのだろうか。このままだとそういうことになる。それとも、どこかに限界を定められるべきなのであろうか。
 少なくとも、リスクを軽減する技術を認めていくシステムは重要であろう。新自由主義経済は、そういう総合的判断を拒否し、市場に任せるという態度をとってきた。しかし、テクノロジーの市場では、公共性のある問題が扱われているのだということは忘れてはならないだろう。
 以上のような点を踏まえて、具体的な問題を考えていくことが次の課題である。
 
 
(1)たとえば中西準子『環境リスク論』(岩波書店 1995年)などがある。
(2)とりわけ金融「工学」という呼称が用いられる分野にはそういった観点が見られる。
(3)たとえば、Charles A. Holloway, Decision Making Under Uncertainty : Models and Choices(Prentice Hall 1979)は、必ずしもリスク問題に取り組んでいるわけではないけれど、人間の意思決定における問題評価と選択の手法を抽象的に論じており、それはここで論じているような場合に適用されるものである。
(4)たとえば、ある一群の人々が生活環境や遺伝特性に由来する特定の疾病への罹り易さをもつときそれらの人々は「ハイリスクグループ」に属していると言われる。また、発ガンの環境要因となりうる生活環境(物質)をリスク・ファクターと呼ぶ。
(5)食品添加物の認可は、どのようにして社会的に安全性が認知されるのかということについての一つの典型的な事例を構成する。この点に関しては別稿で扱う予定である。
(6)たとえば、Heidi Ann Hahn, F. Kay Houghton, Jerome Morzinski, Rebecca R. Phillips and Daniel L. Pond, "Results of the NRC's Performance Assessment Public Workshop"(http://www.nrc.gov/NRC/PUBLIC/PA/workshop.html),1999.
(7)Lloyd Dumas, Lethal Arrogance : Human Fallibility and Dangerous Technology, St Martin's Press, 1999.
(8)同書pp.279-280. 実際にリスクは被害の大きさと生起の確率を掛け合わせて得られる値として定義されるのが普通である。ただし、NRC(National Research Council)は、リスクの定義について次のように述べている。「リスクとは何かと問われたときには、どのような間違いが起きるのか、どのくらい起こりやすいのか、その結果はどのようなものかという3つのことが実際には問われているのだという見解をリスクの定義として採用する。これらの3つの問いは、「リスク・トリプレット」と呼ぶことができる。確率と結果の積という伝統的なリスクの定義はこれに包摂される。」
(http://www.nrc.gov/NRC/COMMISSION/POLICY/whiteppr.html Mar 16 1999))
(9)もちろん、デュマは直観的な判断が常に正しいと考えているわけではない。私たちが直観的には起こりにくいと考える現象が、それほど起こりにくいものではないことを示すいわゆる「誕生日問題」を取り上げている
(10)Dumas, op.cit. p.295.
(11)こういう選択の仕方を意思決定論のタームを用いて「ミニマックス原理」(Dumas, op.cit. p.295)と呼んでいる。
(12)Charles Perrow, Normal Accident : Living with High-Lisk Technologies, Princeton University Press, 1999.
(13)ウルリヒ・ベック『危険社会 新しい近代への道』東廉/伊藤美登里訳(法政大学出版会 1998年)原著は、Ulrich Beck, Risikogesellschaft:Auf dem Weg in eine andere Moderne, Suhrkamp Verlag, 1986.
(14)ベック前掲書p.24.
(15)H.W.ルイス『科学技術のリスク』宮永一郎訳(昭和堂1997年)p.2.原著は、H.W.Lewis, Technological Risk, W.W.Norton, 1992(1990).
(16)ベック前掲書p.70.
(17)ベック前掲書p.89-90.
(18)ベック前掲書p.356-375.
(19)武谷三男『安全性の考え方』(岩波書店 1967年)。
(20)武谷前掲書p.204.
(21)こういった観点から、リスクを多様な次元に分けて考察しようとするのがジャサノフである。Shiela Jasanoff, "Product, Process. or Program : Three Cultures and Biotechnology", in Martin Bauer ed. Resistance to New Technology : Nuclear Power Information Technology and Biotechnology, Cambridge U.P. 1997(1995)
(22)ラングドン・ウィナー『鯨と原子炉−技術の限界を求めて』吉岡斉・若松征男訳(紀伊國屋書店、2000年)。原著は、Langdon Winner, The Whale and the Reactor:A Search o Limits in an Age of High Technology, The University of Chicago Press, 1986.)
(23)ウィナー前掲書p.224.なお、ここで「どのように安全なら十分安全なのか」と訳されているのは、HSISE(How safe is safe enough?)というリスク論でしばしば登場する慣用句であるが、これは「どのくらい安全なら十分安全なのか」と訳されるのが普通である。しかし、安全性の質を問題にするウィナーの場合はそれだけの意味ではないだろう。邦訳者がウィナーの意図をよく把握していることがわかる。
(24)ウィナー前掲書p.239.
(25)ウィナー前掲書p.238.
(26)吉川肇子『リスクとつきあう』(有斐閣 2000年)p.86.
(27)Chauncey Starr, "Risk Management, Assessment, and Acceptability", Risk Analysis, Vol.5(1985), No.2, pp.97-102.および同著者による"Social Benefit versus Technological Risk", Science, vol.165(1969), pp.1232-1238.
 
謝辞
 遺伝子組み換え食品問題の科学論からリスク分析の科学論へと動く機会とヒントと知識をくれた、押田連さん、大塚善樹さん、塚原東吾さん、平川秀幸さんに感謝します。

ご注意下さい
 本稿は入稿版を元にしています。完成原稿とは多少異なります。