ビッグデータでやりたいこと、研究者、想定外
ビッグデータについてのポエム。
将来の職種について考える中で、ビックデータ解析についてよく考える。
自分はいろんなことを知りたいと日々思っている。
しかし、ネットでは流れる情報が多すぎる。本も大量に出版されて読み切れない。
なのでキュレーターに頼ることになる。(ちなみに一番長く使っているのがはてブ)
ただ、やはり自分専用のキュレーターを自身で作りたいと思ってしまう。
PythonやRを自主的に学んで試そうと考えている。
そして、得たスキルを使って社会に貢献していけると一番いいのかなと思っている。
一方で別の方向からもビックデータを見ている。
宇宙の謎を解くために天体を観測する。特定の天体を観測することもあるが、サーベイと言って映るものを片っ端から取っていくこともされている。世界中の研究所によって何年も続けられて、データが蓄積されている。
生物のゲノム解析は続けられている。個人のゲノム解析が可能になる時期も近いのではないか。
天気の観測情報は、ほぼすべて保存されている。
これらをデータ解析すれば、自然法則の傾向分析ができるのでは無いか。
そして将来の研究者は、
AIの出した予測を人間の手法で証明していく人
になるのでは無いだろうか。
しかしこれは危険をはらむ。
AIはデータに反映されない想定外を予測できない。
想定外は人間が予測しなければならない。
つまり、研究者は前者か後者の選択を迫られることになる。
ちょっと待とう。
想定外を予測するAIは本当に作れないのだろうか。
たとえば、乱数を使ってあえて間違ったデータをいれてみる。
その時、現実で何が起きるかシュミレーションする。
そうすれば、想定外の解ばかりをはきだすAIが作れそうだ。
その想定外の解について、検証したり対策を考えたりする研究者も出てくる。
あれ、堂々巡りになってきたような。。。
この辺でやめよう。
蛇足
自分はコロコロ考えが変わるので、まったく別の職種についているかもしれない。
だからこそ、考えたことを書き残すのが良さそう。
すでに考えてる人がいるだろうけども。