【社会】リスク管理と危機管理

りす栗さん
りす栗さん
日大事件で、危機管理学部の存在が話題になったので、あらためて考えてみた。

もともとリスクというのは、起きるか起きないか、悪いか悪いくないかも分からない不透明な状態を言うので、リスク管理というのは、そのリスクが実際の問題として起きてしまうことを防ぐのが主となる。
リスク項目を評価して、起きそうもない、起きても影響なさそうとなれば放置してもよいし、重大な問題が起きそう、ということであれば、その発生確率を減らしたり、それでも起きたときの対応を打っておくのだ。

危機管理は、その名の通り、リスクの中でも危険なものへの対策で、かつ、起きてしまったあとの後始末、復旧なども管理する。

今回のアメフト問題は、実際に問題が発生して被害者も居る状態なのに、その対応が後手に回り、かつ誰がどうみても信用されないような言い訳に終始しているので、これでは、直接関係なくても日大危機管理学部って何なのさ、という風評被害が出ても仕方無い状況ですね。

タグ
#社会
6件のコメントがあります
1~6件 / 全6件
りす栗さん
まーちょっと脱線しました。
故障することを前提に対応するのがフォルトトレラントですから、それを否定しちゃうと、例の原発のように
「絶対安全」なのだから対策が不十分、て神話の崩壊になっちゃいます(^^)。

それに絶対故障しない信号機作るより、信号機のない完全自動制御になりそうですね(^^);


故障しない信号機、これ作れたらノーベル賞ものでしょうね(笑)
りす栗さん
そうですね。

単純な問題でも考え始めるといろんな要素があって面白いです。

たとえば、信号機は壊れたら全部赤になるように作る、はフェールセーフかも知れないが、いざ実行してみると、全部赤だと通行者が混乱するだけで解決にならなかったりする。
信号があることがわかっている交差点では、かえって消えているほうが皆が注意しながら進むのでいい、とか、ただし夜だと交差点そのものが見えにくいのですごく危険、とか。
AI登場で、人間心理を読みながら対策できる信号機とか?ってここまで出来るなら故障しない信号機作るよね~、だったりして。


私も当時は、コンピュータシステムにおけるハードウェア、ソフトウェアの観点での安全性対策でしたけどね。
教授はこれに人間工学がミックスされれば、行動システムにも広がっていくものだと我々に説いてくださってました。
まさに今のリスク管理ですね。
もちろん、これってトレードにも生きる話ですけどね(笑)
りす栗さん
おはようございます。

おお、そうですか。
時代の先端を行ってましたか(^^);

ありましたね~。
わたしは社会人になってからメーカーの中でそれらを学びましたが、どちらかというと、製品の安全性に関わるものでした。
今や、社会問題などで幅広く検討されていますね。

おはようございます。
自分が大学生時代に、フォルトトレラント、フェールソフト、フェールセーフなどを研究していましたが、時代はどんどんこういうものが必要になってくるという教授の話が今も納得です。
危機管理の学生たちも、きっとよい題材を徹底的に勉強出来て、よい将来を目指してくれるでしょう。
りす栗さんのブログ一覧