ってゆーか、「絶版マンガ図書館」がいつのまにやら「マンガ図書館Z」に変わってるし、原著もってるけど自炊するのめんどうなので、PDF版でも買おうかな〜。
* アイザック・アシモフの洞察力(その1)
現代のぼくたちにとって、科学技術の空洞化の危険性や、軽薄短小技術の優秀性は、今さら語るまでもないような常識だと思う。だから、銀河帝国に対するファウンデーションの優位性というのもごく自然に受け入れられる。
でも、考えてみると、アシモフが銀河帝国三部作を書いた1940年代は、まだトランジスタも発明されていない。1948年に発明されたトランジスタが、どうにか使いものになるようになったのは50年代中頃で、それがICとして集積化されるようになったのは58年のことだ。さらにそれがムーアの法則に従って発達し世界を劇的に変えるなんて事は、1940年代に想像できたわけがない。
ところがアシモフは、ある種の技術とはこう言うものだというエッセンスを深く理解していたようで、具体的な技術は現実とは違うものの、社会の変化についてはそれから50年以上未来のことまで言い当てているところがあるんだよね。
* アイザック・アシモフの洞察力(その2)
人工心肺をはじめとする様々なテクノロジーによって、かつては助からなった命も、救命できる。でも、その結果、植物状態という、生きてはいるが意識が戻る確率の低い状態や、意識はあるが装置の助けなしに生き続ける事が難しい状態も生じてしまった。
この時、生命を少しでも長らえさせるという目的は完全に果たされているわけだけど、結果として人間の尊厳は失われているのかもしれない。それによって、自ら何事かを決定する権利が、蔑ろにされているからだ。
これと同じで、あらゆる事を機械に任せるようになったとき、人は尊厳を失うんじゃないだろうか。死なないこと、安全性を極限まで追求すれば、その極限は全てを機械に任せることになるだろう。でも、それは人間性を放棄してしまうことになるのかも知れないなあと、50年代の感覚を持ち続けてるオレはおもうんだよね。
* AIがことばをうまく操れないわけ(その1)
グーグルは人間の視覚野の情報処理からモデル化された、スパースモデリングという手法で、ネットの中のたくさんの写真のなかから猫を見つけることに成功した。少なくとも図形に関しては、記号着地に成功したわけだ。
しかし、グーグルのAIがやれたのは、あらゆる者が写っている映像の中から猫の静止画を抽出できただけで、動いている猫が取り出せているわけもない。まして、人間がやっているもっと抽象度の高い猫的なもの、例えば詩的に表現された猫を猫と理解するとか、人並みに猫のエッセンスを抽出するにはどうしたらいいかはまだ解っていない。
もちろん動いている猫を取り出すというようなことも、同じ原理でできそうだし、人間ができている他の認識についてもそれぞれやっていって、それらを総合すればできるはず、なにしろ原理は人間の脳と同じなんだからと多くの人は考えているとは思うんだけど、それだけではたどり着けない世界もあると思うんだよね。
* AIがことばをうまく操れないわけ その2
siriやgoogleの音声認識を体験すると、その認識力の高さに驚くし、AIを使えば言葉の理解なんてたやすいだろうと、なんとなく思ってしまう。
でも、たとえばgoogle翻訳とかみると、訳文はまあまともに文章になってなかったり、意味不明な部分がかなりたくさん含まれている。
つまり、いまのAIは文章の「意味」が全く解っていないんだよね。AIがやっている翻訳は、ざっくりいって、ある種の統計手法を使って、とりあえずいちばんもっともらしい確率の高い物を示しているだけだ。
* 一般科学記事を読み解くリテラシー
モミの木の記事にせよ、インフルエンザの記事にせよ、ジャーナリスティックにおやっと思わせるタイトルであることは確かで、そういうものを新聞者がつけたがる心理はたしかにあるのだろう。
しかし、なんとなく放射能は恐いとか、ワクチンは忌避したいというぼんやりした気分がある今の日本では、こういう記事の表現の仕方にはもう少し注意を払った方が良いんじゃないかなあとはおもうなあ。
* 遺伝子でどこまでわかるんだろう
がん細胞の中で動いている遺伝子の種類や量を読み取ること(トランスクリプトーム分析)で、それががん細胞か否か判定できそうな感じもする。でも、それはそう簡単にはいかない、あと100年くらいは病理医が必要だというのがヤンデル先生の主張だ。
いじょ。
0 件のコメント:
コメントを投稿