金沢大学薬学シンポジウム2014 -創薬動態フォーラム in 金沢-にて湯田が講演致します。
本シンポジウムは、7月18日(金)開催され、場所は金沢大学角間キャンパス 自然科学図書館大会議室、時間は13:00-17:35となっております。 4人の先生方が講演され、私の講演演題は 「インシリコADMET予測の現状と今後の創薬への展望:化学多変量解析/パターン認識を基本として」となります。
若い学生の方々や本研究分野にご興味を持たれております研究者の方々と討論出来ますことを楽しみにいたしております。
以上
文責:湯田 浩太郎
時代は「コンピュータ時代」から、データが総てを支配する「情報時代」へと急速に変化しつつあります。研究業務自体も、このような時代の変化に対応することが求められます。来るべき「情報時代」におけるAI 革命での「自律型(知的、オートノマス)研究」との適合性を議論することは喫緊の課題となります。
本ブログでは、AI 革命の推進技術である「(大規模)生成AI」が研究業務に与える様々な影響や効果について討論してまいります。興味ある方は、フォローと積極的な討論参加お願いいたします。
インシリコデータ株式会社関連ブログ;Blog of the In Silico Data Ltd..
ようこそ(株)インシリコデータブログへ。このブログでは、主としてインシリコデータのホームページでは直接編集できない細かな内容をフォローいたします。本ブログ内容等に関する質問/要望/意見等はこちらのブログか、インシリコデータのコンタクトアドレス(insilicodata.contact@gmail.com)にメールをいただければ幸いです。
なお、一部で著者の私的な情報に関する掲示板としても本ブログを利用いたしますが、この点お許しください。
In this blog, I discuss and write various themes which I cannot edit on the homepage of the In Silico Data. This blog also partly include a little personal themes.
なお、一部で著者の私的な情報に関する掲示板としても本ブログを利用いたしますが、この点お許しください。
In this blog, I discuss and write various themes which I cannot edit on the homepage of the In Silico Data. This blog also partly include a little personal themes.
2014/07/01
2014/04/21
「計算毒性学」研究会のキックオフミーティングが開催されます:Kick-off meeting of the "computational toxicology" will be held
「計算毒性学(Computational Toxicology)」研究会がCBI学会で設立されました。 この、設立キックオフミーティングが8月8日(金)-9日(日)に愛媛県にて開催されます「CBI学会夏の合宿2014 in道後/松山」の二日目に予定されています。 なお初日は、CBI学会が実施しております研究講演会が予定されております。 当日のプログラム内容の詳細は決まり次第WEBにアップされますので、チエックお願いいたします。
計算機による化合物毒性研究にご興味ある方々の積極的な参加をお待ちいたします。 日本には「計算毒性学」の専門家がおりませんので、様々なバックグラウンドを有する多くの方々の参加により、本「計算毒性学」の展開や発展を目指すパワーにしてゆこうと思います。
本アナウンスは、「計算毒性学」の発展と情報交換の場を目指すブログである「楽しく、失敗がなく、良く理解できるインシリコ毒性スクリーニング学習塾」に、より詳しく掲載されておりますので、そちらもご参照ください。
文責:湯田 浩太郎
2014.4. 21
計算機による化合物毒性研究にご興味ある方々の積極的な参加をお待ちいたします。 日本には「計算毒性学」の専門家がおりませんので、様々なバックグラウンドを有する多くの方々の参加により、本「計算毒性学」の展開や発展を目指すパワーにしてゆこうと思います。
本アナウンスは、「計算毒性学」の発展と情報交換の場を目指すブログである「楽しく、失敗がなく、良く理解できるインシリコ毒性スクリーニング学習塾」に、より詳しく掲載されておりますので、そちらもご参照ください。
文責:湯田 浩太郎
2014.4. 21
2014/03/21
CBI学会にて、「計算毒性学」研究会の設立が承認されました:The CBI society recognized establishment of the "computational toxicology" workshop.
かねてよりCBI学会に提案しておりました「計算毒性学(Computational Toxicology)」研究会の設立が、先日行われましたCBI学会の執行委員会にて承認されましたので報告いたします。
「計算毒性学」は、最近になり様々な分野で急速にその必要性が増大しつつあり、同時に時代の背景や要請もあり、その果たす役割は一層のこと重要性を増すものと予想されます。
このような急激な状況変化を受け、欧米では「計算毒性学」を標榜する組織やワークショップ等が立ち上がっております。 しかし、日本では「計算毒性学」の認知度が殆ど無く、正式な活動を行なう組織もグループも存在しない状況にありました。
今回、CBI学会により「計算毒性学」研究会の設立が承認されたことで、公式の場での活動が可能となり、本研究分野に興味を持つ多くの研究者の方々との情報交換や研究が進むようになることを期待しております。
本件に関しますより詳細な報告は、旧「インシリコスクリーニングブログ」⇒新「楽しく、失敗がなく、良く理解できるインシリコ毒性スクリーニング学習塾 」に掲載してありますので、ご興味のある方はこちらを参照ください。今後「計算毒性学」に関する情報発信は、そちらのブログにて行います。
以上
文責:湯田 浩太郎
2014.3.20
「計算毒性学」は、最近になり様々な分野で急速にその必要性が増大しつつあり、同時に時代の背景や要請もあり、その果たす役割は一層のこと重要性を増すものと予想されます。
このような急激な状況変化を受け、欧米では「計算毒性学」を標榜する組織やワークショップ等が立ち上がっております。 しかし、日本では「計算毒性学」の認知度が殆ど無く、正式な活動を行なう組織もグループも存在しない状況にありました。
今回、CBI学会により「計算毒性学」研究会の設立が承認されたことで、公式の場での活動が可能となり、本研究分野に興味を持つ多くの研究者の方々との情報交換や研究が進むようになることを期待しております。
本件に関しますより詳細な報告は、旧「インシリコスクリーニングブログ」⇒新「楽しく、失敗がなく、良く理解できるインシリコ毒性スクリーニング学習塾 」に掲載してありますので、ご興味のある方はこちらを参照ください。今後「計算毒性学」に関する情報発信は、そちらのブログにて行います。
以上
文責:湯田 浩太郎
2014.3.20
2014/02/18
hiPSCのセミナーに参加発表いたしました: Report of the hiPSC seminar
2月13日(木)に開催された国立医薬品食品衛生研究所(NIHS)主催の公開シンポジウム「ヒトiPS細胞の創薬プロセスへの応用」に参加しました。 私は、NIHSの石田誠一先生との連名で「hiPSC-肝細胞とインシリコのデータ融合による安全性予測/メカニズム解析に向けた考察」というタイトルで講演発表いたしました。
ヒトiPS細胞の応用では現時点では再生医療がメインとなって展開されています。 この展開に加え、今後は創薬関連分野への展開が急速に広がると考えられます。 この理由は、ヒト由来の細胞や臓器を創薬研究に利用できることが大きな要因となります。
1.動物実験のヒトへの外挿問題の根本的解決が可能となる
創薬研究では、合成された化合物が目的薬理活性を有するか、良好なADME特性を有するか、さらには毒性や副作用が無いことをチエックするのに極めて多数の実験を行なう事が必要です。 この実験の大部分で動物実験が行なわれています。 薬の最終利用者は人であるので、動物実験で得られた実験データをヒトへの実験に外挿することが必要となります。 この動物から得られた実験結果をヒトへの実験へと外挿する問題は、様々な点で極めて困難であり、現在でも確実に人への外挿をすることは出来ておりません。
この創薬における最も厄介な問題を、ヒト由来の細胞や組織、臓器を利用する事が出来るhiPSCを用いることで完全に解決する事が可能となります。 また、個人由来の細胞を用いた実験が簡便に出来るようになれば、個人単位で薬物を調整する事が可能となり、遺伝子に頼らない真の意味でのテーラーメード医療が実現する事になるでしょう。
2.動物実験フリーの創薬が可能となる
現在、EUでは化粧品等の分野では動物実験結果を規制当局に申請する事は出来なくなっております。 これは、動物愛護の観点から、人に適用する医療と関係の無い化製品等の申請時に必要となるデータを、多数の動物の犠牲による動物実験データを使うのは望ましくないという考えに基づいています。 動物愛護に基本をおくこのような考えは、医療分野にも少なからず影響し、可能な限り動物実験に用いる個体数を減少する事が時代の要請となってきています。 従って、医療分野といえども多数の動物を用いての実験は徐々に減少方向に向かいつつあります。
このように、動物実験そのものも実施条件が厳しくなっている上に、動物から人への解決困難な外挿問題も存在しています。 hiPSCを用いることは、動物実験をする必要が無くなることを意味し、前記動物データのヒトへの外挿問題の根本的な解決が可能となり、さらには動物愛護の観点からの動物実験禁止への根本的な対応が可能となります。
安全性(毒性)スクリーニングという観点でhiPSCを考えるならば、再生医療に要求されるような非常に高いレベルでの細胞の品質と純度が要求されるわけではないと考えます。 例えば変異原性試験のAmes試験について考えるならば、菌の種類が複数存在し、菌の種類単位で変異原性を決めるのか、あるいは複数の菌のデータを合わせた結果を用いるかで、スクリーニング結果は異なってきます。 現在実施されている安全性(毒性)スクリーニングの実情を考えるならば、実験に用いるhiPSCの品質の問題は確かに重要ですが、スクリーニングの実施目的は何であるかを考えた時、再生医療で求められる品質と必ずしも同じレベルが求められるとは考えにくいと思います。
薬理活性やADME、安全性(毒性)に関する化合物スクリーニング実施時の、実施目的にかなうhiPSCのあるべき姿というものを追求する事が大切であると考えます。 いずれにしても、動物実験フリーという条件は、従来の動物実験を用いたスクリーニングが抱えていた動物からヒトへの外挿問題と、動物愛護という極めて解決困難な二つの問題を一気に解決する可能性を有しております。
以上
文責:湯田 浩太郎
2014.2.18
2014/01/06
新年のお祝いとご挨拶: A Happy New Year and Greetings
皆様の温かいご支援のおかげにて、2014年を無事迎えることが出来ました。
改めまして新年のご挨拶を申し上げます。
昨年は、私が仕事をしておりますインシリによる安全性評価研究分野での変化が広範囲に、かつ技術的にも大きく変化していることを感じた一年となりました。 この大きな変化をチャンスととらえ、世界に貢献できる技術の開発とその普及に全力を尽くす所存です。 今後ともよろしくご支援いただけますようお願い申し上げます。
◇インシリコ安全性研究を取り巻く環境の変化(創薬関連研究分野)
安全性研究分野は、インシリコ技術という観点からはここ数十年にわたりほぼ変化の無かった無風状態の研究分野でした。 しかし、昨年はこのインシリコ安全性研究を取り巻く環境が大きく変化していることを実感させられた一年となりました。
以前のTox研究は、薬理活性主体の創薬関連研究においては、薬理活性以外の研究分野という観点からかADME研究の一部としてTox研究が組み込まれて議論されることが多く、ADMETという言葉で代表されていました。 ADMEとToxは研究内容からも技術的な観点でも大きく異なります。 従って、私としてはADMETとして一緒に扱う事には大きな違和感がありましたが、これが時代の主流となっていました。
しかし、ADMETの議論を行なう過程でインシリコも含めた様々な技術関連の知識が普及するにつれ、ADMEとToxでは適用技術が大きく異なることが一般研究者の方々にも少しずつ見えてくるようになりました。 さらには、安全性研究の重要さが次第に大きくなり、適用手法も、技術的な内容もADMEとToxとでは一部の技術を除けば大きく異なるため、ADMEとToxでの研究分野間での技術の転用が極めて困難であることが理解されるようになりました。 この結果、現在や今後はADMETのようにADMEとToxを一緒にした議論が少なくなり、ADMEやToxの個々の研究分野で正当な議論がなされるようになるものと期待しています。 もちろん、より研究が進みADMEとToxを統一した議論が可能となるような理論が出てくることが理想であることに変わりはありません。 極端にいえば、生体反応という観点で見れば、薬理活性、ADME、Toxと全て同じですから・・。
◇インシリコ安全性研究を取り巻く環境の変化(創薬およびその他の安全性関連研究分野)
インシリコ関連技術が安全性研究分野で急速にその重要性を増大させていることを日々実感いたしております。 創薬における安全性(毒性)研究、環境分野におけるハザード概念の普及、動物愛護の観点からの動物実験代替法としての適用、政府関連の化合物規制での適用等、インシリコ安全性関連技術の適用分野の広がりや研究の重要性が日々増大しております。
◇生体および化合物インシリコ安全性研究を取り巻く様々な変化
私が従来から行なっております化学データ解析技術自体も大きく進歩しています。 基本となるデータ解析自体もコンピュータの進歩のみならず、扱うデータの量も急激に拡大し、現在はやりのビッグデータ解析等データ解析の重要な基本技術となっています。
私の行なうデータ解析は生物や化合物のデータを扱う特殊な研究分野ですが、やはり扱うデータ量も急激に増大しており、ビッグデータ解析関連の技術の適用も重要となっています。 生物や化合物のアナログデータをデジタルデータに変換して目的のデータ解析を効率よく行なう。 これには長い基礎研究の流れがあり、先行する多くの研究者の成果や実績の上に立っての新たな技術的な進展が必須です。 また、適用分野におけるある程度の知識も必要となります。
インシリコデータはこのような時代の要求に答えることを目指して頑張ります。
2014.01.06
文責:湯田 浩太郎
改めまして新年のご挨拶を申し上げます。
昨年は、私が仕事をしておりますインシリによる安全性評価研究分野での変化が広範囲に、かつ技術的にも大きく変化していることを感じた一年となりました。 この大きな変化をチャンスととらえ、世界に貢献できる技術の開発とその普及に全力を尽くす所存です。 今後ともよろしくご支援いただけますようお願い申し上げます。
◇インシリコ安全性研究を取り巻く環境の変化(創薬関連研究分野)
安全性研究分野は、インシリコ技術という観点からはここ数十年にわたりほぼ変化の無かった無風状態の研究分野でした。 しかし、昨年はこのインシリコ安全性研究を取り巻く環境が大きく変化していることを実感させられた一年となりました。
以前のTox研究は、薬理活性主体の創薬関連研究においては、薬理活性以外の研究分野という観点からかADME研究の一部としてTox研究が組み込まれて議論されることが多く、ADMETという言葉で代表されていました。 ADMEとToxは研究内容からも技術的な観点でも大きく異なります。 従って、私としてはADMETとして一緒に扱う事には大きな違和感がありましたが、これが時代の主流となっていました。
しかし、ADMETの議論を行なう過程でインシリコも含めた様々な技術関連の知識が普及するにつれ、ADMEとToxでは適用技術が大きく異なることが一般研究者の方々にも少しずつ見えてくるようになりました。 さらには、安全性研究の重要さが次第に大きくなり、適用手法も、技術的な内容もADMEとToxとでは一部の技術を除けば大きく異なるため、ADMEとToxでの研究分野間での技術の転用が極めて困難であることが理解されるようになりました。 この結果、現在や今後はADMETのようにADMEとToxを一緒にした議論が少なくなり、ADMEやToxの個々の研究分野で正当な議論がなされるようになるものと期待しています。 もちろん、より研究が進みADMEとToxを統一した議論が可能となるような理論が出てくることが理想であることに変わりはありません。 極端にいえば、生体反応という観点で見れば、薬理活性、ADME、Toxと全て同じですから・・。
◇インシリコ安全性研究を取り巻く環境の変化(創薬およびその他の安全性関連研究分野)
インシリコ関連技術が安全性研究分野で急速にその重要性を増大させていることを日々実感いたしております。 創薬における安全性(毒性)研究、環境分野におけるハザード概念の普及、動物愛護の観点からの動物実験代替法としての適用、政府関連の化合物規制での適用等、インシリコ安全性関連技術の適用分野の広がりや研究の重要性が日々増大しております。
◇生体および化合物インシリコ安全性研究を取り巻く様々な変化
私が従来から行なっております化学データ解析技術自体も大きく進歩しています。 基本となるデータ解析自体もコンピュータの進歩のみならず、扱うデータの量も急激に拡大し、現在はやりのビッグデータ解析等データ解析の重要な基本技術となっています。
私の行なうデータ解析は生物や化合物のデータを扱う特殊な研究分野ですが、やはり扱うデータ量も急激に増大しており、ビッグデータ解析関連の技術の適用も重要となっています。 生物や化合物のアナログデータをデジタルデータに変換して目的のデータ解析を効率よく行なう。 これには長い基礎研究の流れがあり、先行する多くの研究者の成果や実績の上に立っての新たな技術的な進展が必須です。 また、適用分野におけるある程度の知識も必要となります。
インシリコデータはこのような時代の要求に答えることを目指して頑張ります。
2014.01.06
文責:湯田 浩太郎
2013/12/02
東北メディカル・メガバンク機構のシンポジウムに参加しました:2013年11月29日(金)、東京
◇シンポジウム参加報告:
東北メディカル・メガバンク機構(ToMMo : Tohoku Medical Megabank Organization)のシンポジウムが11月29日(金)に東京にて開催されました。今回のシンポジウムはToMMoが活動開始してから東北以外では最初のシンポジウムになるという事もあり、約200人ほど入れる会場も、補助椅子を使うほど大勢の人々で満席状態でした。 このToMMoが多くの人々から注目されていることが如実に示された結果と考えます。当日の会場の様子がこちらにアップされています。
また、本シンポジウムとその案内パンフレットがこちらにPDF形式で掲載されています。 このパンフレットからもわかるように、シンポジウムのタイトルは「大規模ゲノムコホートからシークエンス解析へ -東北発、次世代型医療への挑戦-」となっております。
このコホート解析では被検診対象の方々は、東日本大震災において津波により被災された方々で、大きな目的は大震災による津波被害による健康への影響をゲノム情報から解析し、その解析結果を今後の被災者のケア(パーソナライズドメディスン)に役立てることが主たる目的だそうです。人ゲノムを被験者より収集、全ゲノム配列を決め、しかも三世代にわたって収集/追跡を行なうものです。 被験者数も約7万人と大きく、収集地域も福島、宮城、岩手県と東北の東日本部分の広範囲に及ぶもので、日本ばかりか世界的スケールで見ても類の無い実験であり、極めて貴重なデータや解析が出来るものと期待されます。
報告では、7月19日(金)に調査開始後、本シンポジウムの直前に1009被験者の全ゲノム解析が終了したとの報告であった。 これだけの短期間に、1000以上の全ゲノム解析をやってのけたのは、人ゲノム解析が全世界の共同作業として実施されたことから考えると、本当にこの分野のゲノム解析技術の急速な進歩が実感されます。
本プロジェクトで解析された人ゲノムデータは、匿名化された後に一般に公開される予定であるとの話でした。 実際にこれらのゲノム情報が公開されると、データの量が半端ではなく、現在急速に展開しているビッグデータ解析等のソフト関連技術やスーパーコンピュータ等のハード関連技術もさらに高度な手法やハードが必須となるでしょう。 一つの分野が従来の規模を大きく超越してくると、それに関連する分野もその超越した分野に引きずられて、さらに大きく飛躍してゆく。 このような正の連鎖が始まるきっかけとなればよいと考えます。
◇サンプリングの重要性
既に本ブログでも言及しておりますように、データ解析を行なっているとサンプル数と同時にサンプリングも重要であるという事を痛感します。 何らかの解析目的を持って要因解析を行なう時、適用するデータ解析の種類や解析力の強弱よりも、データ解析時に必要となる情報があるか否かという事が重要です。 厳密で、多種多様な解析を目指す場合はデータの品質/内容(実験条件、アノテーション)の方も極めて重要になります。
データ解析の実施時に必要となる肝心の情報が存在しない場合や、サンプル数やデータ品質の不備がある場合、しばしばデータ解析実施困難となり、出来ても解析信頼性が低い等の問題が発生します。このような、データ解析実施時のサンプリングに関する問題は、本ブログにて時々言及しておりますので、ご参照ください。
今回集められたサンプルデータは人ゲノム情報ということで、機密保持の観点から匿名化がきちんと行なわれるようになります。 これが完全であればあるほど、解析実施のために既存のサンプルデータに後から追加でデータをリンクする事はかなり難しくなり、この観点でもデータ解析が出来なくなる可能性が高まります。
今後の医療や創薬の展開を先取りし、将来発生するであろう様々なデータ解析を想定し、それらの解析に必要な情報を備えたメガバンクへと展開していただければと考えます。
以上
文責 湯田 浩太郎
2013.12.1
2013/08/05
サンプリングの重要性について ( 番外編 ) : The importance of sampling on data analysis ( Extra edition )
多変量解析/パターン認識実施時のサンプリングの重要性:
Importance of sampling on multi-variate analysis and pattern recognition techniques
◆ データ解析時におけるサンプリングについてまとめてみます。
サンプリングについてまとめていますが、最近「ノバルティス社のディオバン(バルサルタン)臨床データ捏(ねつ)造疑惑」が大きな社会問題として出てきました。 今回は番外編として、データ解析を行なっている立場からこの件についての感想をまとめてみます。
前のブログで以下のように書かせてもらいました。
データ解析時に最も重要なことは?⇒サンプリング
この事実は、私が何十年と積み重ねてきたデータ解析の経験から見出された最も重要な結論です。 詳細な解説は現在編集中で、今後順に本ブログにアップする予定です。
今回は、私の過去の経験から導き出された「サンプリング」が大事という事項をまとめている最中に、偶然にも「ノバルティス社のディオバン(バルサルタン)臨床データ捏造疑惑」が話題となりましたので、サンプリングとデータという観点で私の感想を述べます。
もともと私が想定していたサンプリングとは、データ解析をスマートに且つ精度/信頼性高く実施するという目的に立つサンプリングです。 今後は、この観点でデータ解析実施時におけるサンプリング上での考慮すべき、解決すべき問題点等についてまとめる予定です。
しかし今回のノバルティス社の問題は、同じサンプリングではありますが、データ捏造という操作によりデータ解析結果をバイアスの強くかかった(自分の目的に都合のよい)結果に導くという、私が想像もしなかった悪しきサンプリングの実例です。 従って、本ブログに掲載する予定である、私の経験から導き出された「正しい解析に導くためのサンプリング」を語る上で今回のノバルティス社の問題についての言及が必須と感じましたので、私の考えを述べさせていただきます。
これは予定外の事ですので、番外編として以下にまとめます。
◇ 二種類のサンプリング(正しいサンプリングと悪しきサンプリング)
データ解析においてサンプリングが重要という事は、正しいサンプリングを行なって得られたサンプルを用いてデータ解析を行なえば、「正しく、信頼性の高い評価結果」が得られるという事です。 この正しい評価結果ということに強いバイアスがかかり、自分の目的に都合のよい評価結果に導こうとすることは、同じサンプリングであっても、あってはならない事です。 しかもこの強いバイアスのかかったデータ解析結果が、査読者を有し、正当な評価活動をするJournalに正々堂々とまかり通り、結果として世界中の研究者に間違った認識をさせてしまうという事実がさらに問題を大きくする原因と言えるでしょう。 Journalが単なる権威づけの道具として利用されており、この点ではJournalも患者同様に大きな被害者です。
◇ 二種類のデータ捏造(正しいデータ捏造と悪意のデータ捏造)
さて、正しいデータ解析を実現するために行なわれるサンプリングと、自分の目的に都合のよい結果が出るように行なうサンプリングは全く別次元の問題です。
しかし、使用目的や内容により、しばしばデータ捏造を意図的に行なう場合があります。 例えば、データ解析手法の特徴や利点/欠点を明確にする目的で、都合のよいデータを意図的に捏造することがあります。 多くの場合は乱数等を発生させてデータを作ります。 このような場合はその事実(捏造されたデータを用いたという)を明確にしますので、これは正しいデータ捏造(正しいサンプリング)となります。
しかし、データ解析結果が今回のように社会的に重要な影響を及ぼすものである場合。 また、特定の利害者団体に利益をもたらすような方向にバイアスをかけたサンプリングである場合。 しかも意図的なサンプリングである事実を明確にしなかった場合、このバイアス実現を目的としたサンプリングはデータ捏造(悪しきサンプリング)という、はっきりとした「罪」となります。
◇ より高い値を求めるために行なうデータ操作のジャックポット
データ解析の本質を知らず、単に見かけ上良い結果を導き出すためだけに一生懸命になっていると、「葉を見て木を見ず」や「木を見て森を見ず」のような事態に陥り、本人に悪気がなくとも結果的に間違ってしまう事は以前のブログで事例を示しながら何度も説明してきました。 実際に、このような危険な解析結果が様々な公的/私的機関から数値データ解析結果として正式に発表されており、多くの人々の目に触れています。
これは、単なる操作の間違いであり、担当者が意図的に悪いことをしているわけではありません。 また、これらの事実をチェックする人や出来る人は殆どおりません。 多くの場合、このようなデータ解析の現場からは良い結果が出たとして報告されますので、データ解析の信頼性をチエックできない場合はそのまま公表されるのは仕方ないですね。
この場合の問題は、データ捏造のような悪いことはしていないという意識でありながら、データ解析評価の見かけの値を良くするために、行なってはいけないデータ操作を行なっているという事実です。 間違ったと意識することなく、表面的な評価値が高くなっているので、良い結果としてこのような結果が公開されてしまうのです。
◇ 意図的に行なわれるデータ捏造と無意識に行なわれるデータ操作
こういったデータ操作を行なった結果のデータは、おおむね高い値を実現したものとして発表されることが多く、同じようなサンプルデータを用いて実際にデータ解析を行なうと、自分のデータ解析結果と公表されたデータ解析結果とのギャップにがく然とするようになります。
また、このようにデータ解析の品質よりも、解析結果の評価データの高さのみを競う状態となると、高い値の出ることががあたりまえという雰囲気になり、様々なノイズを含んだデータを用いた現実的な解析とのギャップが大きくなります。 このような競争の結果として、さらに高いデータ解析結果の実現を目指した誤ったデータ操作(データ捏造ではありません)が常識的になるという、データ解析分野としての悪循環が繰り返されるようになります。
これらの「データ捏造」と、「間違ったデータ操作」を比較した場合、どちらの方が質が悪いと言えるでしょうか。 私は、データ操作の問題の方が、データ解析実施者に間違ったデータ操作を行なったという意識がない(単に解析結果の値を高くするだけという意識)だけに、データ捏造よりも問題は深刻と言えると考えます。
むしろデータ捏造は、捏造する本人も意思が明確で、バレテしまうと一巻の終わりという事から、先の間違ったデータ操作(本人に悪いことを行なったという自覚がない)よりも、質的に良いものと言えるかもしれません。
◇ 悪貨(悪いデータ解析)は良貨(良質なデータ解析)を駆逐する
間違ったことをしたという意識の無いデータ解析結果は、多くの場合高い評価値を伴って公開、発表されます。 これが標準値となり、その後に実施される良心的な解析を困難としますし、その結果を貧弱なものに見せてしまいます。 正しいデータ解析を心がけていると、手間ばかりかかって、他の間違った解析結果と比較して評価値が低い値となることが多く、かつ理解されないことが多くなります。
実に残念な状態です。
◇ フィールドのデータ解析専門家の必要性
データが統計、多変量解析、パターン認識といった道具を経て出てくると、その結果を無条件で信じてしまう慣習を見直すことが必要と考えます。 また、統計や多変量解析、パターン認識等の手法やアルゴリズムに関する専門家は多数おりますが、実際のフィールドに出て、日々蓄積するデータを解析するという専門家が少ないことも、今回のような問題を大きくする原因ではないでしょうか。
◇ データ解析を自動車の場合と比較した結果:メカニック専門家とフィールド専門家
データ解析には全く異なる二つの技術が存在します。 データ解析手法に関する技術と、そのデータ解析手法を現場のデータに適用してデータ解析を行なう技術です。
仮にデータ解析を自動車に例えると、自動車を製造する技術と自動車を運転する技術は全く別物です。 自動車製造にはエンジン構造や空気抵抗率、ブレーキ、安全装置、電子制御等の知識が必要です。 しかし、このような自動車製造技術と、人や物を載せて目的地まで運ぶという技術は全く異なり、これには運転技術や、道路交通法の習得、他車や通行人との関係や舗装路、砂利道、山岳道路、果ては凍結路の運転テクニック等が中心です。
自動車製造技術はデータ解析手法の技術に該当し、運転技術は、適用する研究分野(フィールド)で実際のデータを用いてデータ解析を行なう技術に該当します。
◇ フィールドでのデータ解析技術のより具体的な例:化学/創薬研究分野を例として
先の自動車の事例では良くイメージがわかないという方のために、私が行なっている化学/創薬関連分野でのデータ解析を例にとって説明いたします。
化学研究分野では化合物を扱う事が必須です。 化合物は2次元および3次元構造式で表現されますが、このままではデータ解析を実施する事はできません。 そこで必要なのが、この2/3次元構造式情報をデータ解析が可能な数値データへと変換する技術です。 例えば、化合物として最も単純なベンゼンをイメージしてください。 このベンゼンを解析対象とするならば、どのようにすればよいでしょうか・・。 このための様々な技術が展開されています。 また、化合物や創薬分野ではサンプルを集めることが極めて難しく、殆どの場合、データ解析としてはかなり小さなサンプル数で実施する事が求められます。 このような個々のフィールド特有の問題に答えて、より信頼性の高いデータ解析を実現する事が求められます。
このような技術や特殊な環境は、化学や創薬といったフィールドでのデータ解析に遭遇しなければ必要としない技術です。 先の自動車でいえば、道路が凍結している時の運転技術みたいなもので、逆ハンドル、ポンピング、チェーンの取り付け技術等でイメージされれば良いでしょう。
これらの運転技術は安全運転という観点で重要ですが、自動車製造技術者には必要のない技術です。 データ解析も、このようにデータ解析手法の専門家と、データ解析手法を現場で適用して実際にデータ解析を行なうという専門家が必要となります。
現場でのデータ解析のあり方に関する専門家(フィールド研究者)を育てることが早急に必要であることが、今回のノバルティスの件が証明していると言えるでしょう。
文責:
株式会社 インシリコデータ
湯田 浩太郎
Importance of sampling on multi-variate analysis and pattern recognition techniques
◆ データ解析時におけるサンプリングについてまとめてみます。
サンプリングについてまとめていますが、最近「ノバルティス社のディオバン(バルサルタン)臨床データ捏(ねつ)造疑惑」が大きな社会問題として出てきました。 今回は番外編として、データ解析を行なっている立場からこの件についての感想をまとめてみます。
前のブログで以下のように書かせてもらいました。
データ解析時に最も重要なことは?⇒サンプリング
この事実は、私が何十年と積み重ねてきたデータ解析の経験から見出された最も重要な結論です。 詳細な解説は現在編集中で、今後順に本ブログにアップする予定です。
今回は、私の過去の経験から導き出された「サンプリング」が大事という事項をまとめている最中に、偶然にも「ノバルティス社のディオバン(バルサルタン)臨床データ捏造疑惑」が話題となりましたので、サンプリングとデータという観点で私の感想を述べます。
もともと私が想定していたサンプリングとは、データ解析をスマートに且つ精度/信頼性高く実施するという目的に立つサンプリングです。 今後は、この観点でデータ解析実施時におけるサンプリング上での考慮すべき、解決すべき問題点等についてまとめる予定です。
しかし今回のノバルティス社の問題は、同じサンプリングではありますが、データ捏造という操作によりデータ解析結果をバイアスの強くかかった(自分の目的に都合のよい)結果に導くという、私が想像もしなかった悪しきサンプリングの実例です。 従って、本ブログに掲載する予定である、私の経験から導き出された「正しい解析に導くためのサンプリング」を語る上で今回のノバルティス社の問題についての言及が必須と感じましたので、私の考えを述べさせていただきます。
これは予定外の事ですので、番外編として以下にまとめます。
◇ 二種類のサンプリング(正しいサンプリングと悪しきサンプリング)
データ解析においてサンプリングが重要という事は、正しいサンプリングを行なって得られたサンプルを用いてデータ解析を行なえば、「正しく、信頼性の高い評価結果」が得られるという事です。 この正しい評価結果ということに強いバイアスがかかり、自分の目的に都合のよい評価結果に導こうとすることは、同じサンプリングであっても、あってはならない事です。 しかもこの強いバイアスのかかったデータ解析結果が、査読者を有し、正当な評価活動をするJournalに正々堂々とまかり通り、結果として世界中の研究者に間違った認識をさせてしまうという事実がさらに問題を大きくする原因と言えるでしょう。 Journalが単なる権威づけの道具として利用されており、この点ではJournalも患者同様に大きな被害者です。
◇ 二種類のデータ捏造(正しいデータ捏造と悪意のデータ捏造)
さて、正しいデータ解析を実現するために行なわれるサンプリングと、自分の目的に都合のよい結果が出るように行なうサンプリングは全く別次元の問題です。
しかし、使用目的や内容により、しばしばデータ捏造を意図的に行なう場合があります。 例えば、データ解析手法の特徴や利点/欠点を明確にする目的で、都合のよいデータを意図的に捏造することがあります。 多くの場合は乱数等を発生させてデータを作ります。 このような場合はその事実(捏造されたデータを用いたという)を明確にしますので、これは正しいデータ捏造(正しいサンプリング)となります。
しかし、データ解析結果が今回のように社会的に重要な影響を及ぼすものである場合。 また、特定の利害者団体に利益をもたらすような方向にバイアスをかけたサンプリングである場合。 しかも意図的なサンプリングである事実を明確にしなかった場合、このバイアス実現を目的としたサンプリングはデータ捏造(悪しきサンプリング)という、はっきりとした「罪」となります。
◇ より高い値を求めるために行なうデータ操作のジャックポット
データ解析の本質を知らず、単に見かけ上良い結果を導き出すためだけに一生懸命になっていると、「葉を見て木を見ず」や「木を見て森を見ず」のような事態に陥り、本人に悪気がなくとも結果的に間違ってしまう事は以前のブログで事例を示しながら何度も説明してきました。 実際に、このような危険な解析結果が様々な公的/私的機関から数値データ解析結果として正式に発表されており、多くの人々の目に触れています。
これは、単なる操作の間違いであり、担当者が意図的に悪いことをしているわけではありません。 また、これらの事実をチェックする人や出来る人は殆どおりません。 多くの場合、このようなデータ解析の現場からは良い結果が出たとして報告されますので、データ解析の信頼性をチエックできない場合はそのまま公表されるのは仕方ないですね。
この場合の問題は、データ捏造のような悪いことはしていないという意識でありながら、データ解析評価の見かけの値を良くするために、行なってはいけないデータ操作を行なっているという事実です。 間違ったと意識することなく、表面的な評価値が高くなっているので、良い結果としてこのような結果が公開されてしまうのです。
◇ 意図的に行なわれるデータ捏造と無意識に行なわれるデータ操作
こういったデータ操作を行なった結果のデータは、おおむね高い値を実現したものとして発表されることが多く、同じようなサンプルデータを用いて実際にデータ解析を行なうと、自分のデータ解析結果と公表されたデータ解析結果とのギャップにがく然とするようになります。
また、このようにデータ解析の品質よりも、解析結果の評価データの高さのみを競う状態となると、高い値の出ることががあたりまえという雰囲気になり、様々なノイズを含んだデータを用いた現実的な解析とのギャップが大きくなります。 このような競争の結果として、さらに高いデータ解析結果の実現を目指した誤ったデータ操作(データ捏造ではありません)が常識的になるという、データ解析分野としての悪循環が繰り返されるようになります。
これらの「データ捏造」と、「間違ったデータ操作」を比較した場合、どちらの方が質が悪いと言えるでしょうか。 私は、データ操作の問題の方が、データ解析実施者に間違ったデータ操作を行なったという意識がない(単に解析結果の値を高くするだけという意識)だけに、データ捏造よりも問題は深刻と言えると考えます。
むしろデータ捏造は、捏造する本人も意思が明確で、バレテしまうと一巻の終わりという事から、先の間違ったデータ操作(本人に悪いことを行なったという自覚がない)よりも、質的に良いものと言えるかもしれません。
◇ 悪貨(悪いデータ解析)は良貨(良質なデータ解析)を駆逐する
間違ったことをしたという意識の無いデータ解析結果は、多くの場合高い評価値を伴って公開、発表されます。 これが標準値となり、その後に実施される良心的な解析を困難としますし、その結果を貧弱なものに見せてしまいます。 正しいデータ解析を心がけていると、手間ばかりかかって、他の間違った解析結果と比較して評価値が低い値となることが多く、かつ理解されないことが多くなります。
実に残念な状態です。
◇ フィールドのデータ解析専門家の必要性
データが統計、多変量解析、パターン認識といった道具を経て出てくると、その結果を無条件で信じてしまう慣習を見直すことが必要と考えます。 また、統計や多変量解析、パターン認識等の手法やアルゴリズムに関する専門家は多数おりますが、実際のフィールドに出て、日々蓄積するデータを解析するという専門家が少ないことも、今回のような問題を大きくする原因ではないでしょうか。
◇ データ解析を自動車の場合と比較した結果:メカニック専門家とフィールド専門家
データ解析には全く異なる二つの技術が存在します。 データ解析手法に関する技術と、そのデータ解析手法を現場のデータに適用してデータ解析を行なう技術です。
仮にデータ解析を自動車に例えると、自動車を製造する技術と自動車を運転する技術は全く別物です。 自動車製造にはエンジン構造や空気抵抗率、ブレーキ、安全装置、電子制御等の知識が必要です。 しかし、このような自動車製造技術と、人や物を載せて目的地まで運ぶという技術は全く異なり、これには運転技術や、道路交通法の習得、他車や通行人との関係や舗装路、砂利道、山岳道路、果ては凍結路の運転テクニック等が中心です。
自動車製造技術はデータ解析手法の技術に該当し、運転技術は、適用する研究分野(フィールド)で実際のデータを用いてデータ解析を行なう技術に該当します。
◇ フィールドでのデータ解析技術のより具体的な例:化学/創薬研究分野を例として
先の自動車の事例では良くイメージがわかないという方のために、私が行なっている化学/創薬関連分野でのデータ解析を例にとって説明いたします。
化学研究分野では化合物を扱う事が必須です。 化合物は2次元および3次元構造式で表現されますが、このままではデータ解析を実施する事はできません。 そこで必要なのが、この2/3次元構造式情報をデータ解析が可能な数値データへと変換する技術です。 例えば、化合物として最も単純なベンゼンをイメージしてください。 このベンゼンを解析対象とするならば、どのようにすればよいでしょうか・・。 このための様々な技術が展開されています。 また、化合物や創薬分野ではサンプルを集めることが極めて難しく、殆どの場合、データ解析としてはかなり小さなサンプル数で実施する事が求められます。 このような個々のフィールド特有の問題に答えて、より信頼性の高いデータ解析を実現する事が求められます。
このような技術や特殊な環境は、化学や創薬といったフィールドでのデータ解析に遭遇しなければ必要としない技術です。 先の自動車でいえば、道路が凍結している時の運転技術みたいなもので、逆ハンドル、ポンピング、チェーンの取り付け技術等でイメージされれば良いでしょう。
これらの運転技術は安全運転という観点で重要ですが、自動車製造技術者には必要のない技術です。 データ解析も、このようにデータ解析手法の専門家と、データ解析手法を現場で適用して実際にデータ解析を行なうという専門家が必要となります。
現場でのデータ解析のあり方に関する専門家(フィールド研究者)を育てることが早急に必要であることが、今回のノバルティスの件が証明していると言えるでしょう。
文責:
株式会社 インシリコデータ
湯田 浩太郎
2013/07/26
サンプリングの重要性について (1 ; オーバービュー) : The importance of sampling on data analysis ( 1; overview )
多変量解析/パターン認識実施時のサンプリングの重要性:
Importance of sampling on multi-variate analysis and pattern recognition techniques
◆ データ解析時におけるサンプリングについてまとめてみます。
一回目は全体的な観点から見た場合のサンプリングの重要性です。
データ解析時に最も重要なことは?⇒サンプリング
実際にデータ解析を行なうと、データ解析手法の差異やパラメータ選択(特徴抽出)等様々な問題が複雑に絡んできます。 これらの様々な問題を解決しながらベストの答えを探すのがデータ解析の面白いところで、成功すると達成感が出て楽しい作業となります。
このようなデータ解析を常々行なっていると、成功のみならず失敗も数多く経験します。 このような経験に基づいて、データ解析を行なう時に最も大事なことは何なのかと考えると、「データ解析を実施する時に最も重要なことは、サンプリングである」という結論に至ります。
サンプリングに失敗したままデータ解析を行なっても、当然ながら良い結果は得られません。 何らかの結果は出ますが、何の役にも立たない結果であり、データ解析そのものを邪魔、あるいは間違った方向に導いてしまう事になります。 多変量解析/パターン認識では最初に行うサンプリングが極めて大事であり、このサンプリングに成功すれば、良好なデータ解析結果は必ず付いてくると言っても過言ではないでしょう。
このサンプリングの問題は、依然説明したようなデータ解析自体の信頼性保持のための「チャンスコリレーション(偶然相関)」や「オーバーフィッティング(過剰適合)」といった問題とは別次元の問題です。 既にこれらの問題を意図的に起こすことで、100%分類や相関/決定係数の100%を簡単に実現できることを、重回帰を例にとって示してあります。
皆様も、データ解析という一見綺麗に見える包装紙に包まれた中身の良否を冷静に判断できる、あるいは判断する習慣や力を身につけてください。
サンプリングが怖いのは、サンプリングが良くない場合でもデータ解析は実施出来るので、必ず解析結果が出ることです。 先に述べた「チャンスコリレーション」や「オーバーフィッティング」を起こしていなければ、一般的にこのような場合は、分類率や相関/決定係数というものは低い値になるため、データ解析に用いたサンプルを疑う事になります。
この時、「チャンスコリレーション」や「オーバーフィッティング」を知らずに、分類率や相関/決定係数のみをデータ解析結果の評価指標としていると、パラメータを追加したりといった自殺行為を起こしやすく、別な意味での失敗を起こすことになります。
しかし、運悪くこれらの評価指標値が比較的高い値となった場合はサンプルを疑う事は無くなり、データ解析結果を信じて、次の段階となる要因解析等に移ることになります。 この後はノイズ情報に惑わされ、まともな解析が出来なくなり、混迷という泥沼に入ってしまいます。
この混迷から抜け出すのは、最終的にはその研究分野での常識や慣習という事になります。 結論が、その研究分野の常識や慣習と照らし合わせて納得のゆくときは問題ないのですが、納得がゆかない場合は、データ解析そのものが否定される場合と、従来の常識や慣習にとらわれない全く新しい事実が発見されたという二つの可能性があることとなります。 この証明には追試や検証試験が必要となりますが、楽しい試験となるでしょう。
文責:
株式会社 インシリコデータ
湯田 浩太郎
Importance of sampling on multi-variate analysis and pattern recognition techniques
◆ データ解析時におけるサンプリングについてまとめてみます。
一回目は全体的な観点から見た場合のサンプリングの重要性です。
データ解析時に最も重要なことは?⇒サンプリング
実際にデータ解析を行なうと、データ解析手法の差異やパラメータ選択(特徴抽出)等様々な問題が複雑に絡んできます。 これらの様々な問題を解決しながらベストの答えを探すのがデータ解析の面白いところで、成功すると達成感が出て楽しい作業となります。
このようなデータ解析を常々行なっていると、成功のみならず失敗も数多く経験します。 このような経験に基づいて、データ解析を行なう時に最も大事なことは何なのかと考えると、「データ解析を実施する時に最も重要なことは、サンプリングである」という結論に至ります。
サンプリングに失敗したままデータ解析を行なっても、当然ながら良い結果は得られません。 何らかの結果は出ますが、何の役にも立たない結果であり、データ解析そのものを邪魔、あるいは間違った方向に導いてしまう事になります。 多変量解析/パターン認識では最初に行うサンプリングが極めて大事であり、このサンプリングに成功すれば、良好なデータ解析結果は必ず付いてくると言っても過言ではないでしょう。
このサンプリングの問題は、依然説明したようなデータ解析自体の信頼性保持のための「チャンスコリレーション(偶然相関)」や「オーバーフィッティング(過剰適合)」といった問題とは別次元の問題です。 既にこれらの問題を意図的に起こすことで、100%分類や相関/決定係数の100%を簡単に実現できることを、重回帰を例にとって示してあります。
皆様も、データ解析という一見綺麗に見える包装紙に包まれた中身の良否を冷静に判断できる、あるいは判断する習慣や力を身につけてください。
サンプリングが怖いのは、サンプリングが良くない場合でもデータ解析は実施出来るので、必ず解析結果が出ることです。 先に述べた「チャンスコリレーション」や「オーバーフィッティング」を起こしていなければ、一般的にこのような場合は、分類率や相関/決定係数というものは低い値になるため、データ解析に用いたサンプルを疑う事になります。
この時、「チャンスコリレーション」や「オーバーフィッティング」を知らずに、分類率や相関/決定係数のみをデータ解析結果の評価指標としていると、パラメータを追加したりといった自殺行為を起こしやすく、別な意味での失敗を起こすことになります。
しかし、運悪くこれらの評価指標値が比較的高い値となった場合はサンプルを疑う事は無くなり、データ解析結果を信じて、次の段階となる要因解析等に移ることになります。 この後はノイズ情報に惑わされ、まともな解析が出来なくなり、混迷という泥沼に入ってしまいます。
この混迷から抜け出すのは、最終的にはその研究分野での常識や慣習という事になります。 結論が、その研究分野の常識や慣習と照らし合わせて納得のゆくときは問題ないのですが、納得がゆかない場合は、データ解析そのものが否定される場合と、従来の常識や慣習にとらわれない全く新しい事実が発見されたという二つの可能性があることとなります。 この証明には追試や検証試験が必要となりますが、楽しい試験となるでしょう。
文責:
株式会社 インシリコデータ
湯田 浩太郎
2013/07/18
現況報告2 : Status report 2 ; Office and my house
現況報告2: Status report 2 ; Office and my house
家の方ですが、約二ヶ月半ほどかかりましたが、液状化対策工事と基礎工事が完了し、家全体の形が出来た状態です。 家には足場が組まれ、全体が半透明のブルーシートで囲まれています。 現在は梁や柱だけで、サッシ等が仮止めされ、階段もなく、上階への移動は梯子を使うという状態です。 先日、内部の電気配線や照明の種類や位置の確認、水道の配管位置や洗面、トイレ、エアコン、ホームエレベータ等の最終打ち合わせを現場で行なってきました。
家自体は2X4工法で建てられております。 従って、他のブロック単位で積み上げるプレハブ工法のように、工場から運ばれて現場で積み上げる時には既に壁や外壁等が出来上がっているのとは状況が全く異なっています。 現在は屋根や外壁のタイルが張られておらず、断熱材等も入っていない状況なので内部がスケスケの状態であり、家の構造や骨組が良くわかります。 家全体でも自然換気を行なうために、屋根の垂木?が一部三角形に切り込まれ(ここからも喚気するそうです)ていたり、外壁と内壁の間に隙間が取られていたりと、現在の家には様々な工夫がされています。 私が想像していた以上に木がふんだんに使われているというイメージを受けました。 まだ壁がないので、壁の位置にある木の間を抜けてとなりの部屋に行けるのも面白いと感じました。 忍者の、壁抜けの術といった感じです。
このような状況からわかりますように、他の建築会社と比較して2X4の住宅の方が家の設計等においてはかなり自由度が高いような感じがします。 私も幾つか他の住宅メーカーと打ち合わせを行ないましたが、どうしてもプレハブ工法の関係からか、ユニット単位の考えから抜け出せず、最終的にはカタログにある家とそんなに変わらないような感じを受けました。 ある意味で、その方が安心だし、多くの実績のある設計となるので良いのかもしれません。 私と家内はいろいろと注文付けるので、やはり2X4で施工したのが良かったのではと感じています。 かなり、カスタムメードの家になっていると感じています。
素人では、骨組みだけの現段階ではまだまだ内部の構造イメージがわからないのですが、もう少しすれば、かなり内装が進み、色彩や形、質感等も見えてくるので、より具体的にイメージをつかむことが出来るようになると思います。
インシリコデータの事務所は3階になりますが、大工さんも「いい部屋だよ」と言ってくれました。
実際に行くと、想像以上に視界が良く、また三方向に窓がありベランダもあるので風通しも良く、連日の暑さにもかかわらず、結構過ごしやすい部屋になっているとの話でした。 出来上がるのが、とても楽しみになってきました。
今後は内装と外装工事が急速に進むので、家としてのイメージをよりつかみやすくなると思います。 また、進捗状況を報告いたします。
家の方ですが、約二ヶ月半ほどかかりましたが、液状化対策工事と基礎工事が完了し、家全体の形が出来た状態です。 家には足場が組まれ、全体が半透明のブルーシートで囲まれています。 現在は梁や柱だけで、サッシ等が仮止めされ、階段もなく、上階への移動は梯子を使うという状態です。 先日、内部の電気配線や照明の種類や位置の確認、水道の配管位置や洗面、トイレ、エアコン、ホームエレベータ等の最終打ち合わせを現場で行なってきました。
家自体は2X4工法で建てられております。 従って、他のブロック単位で積み上げるプレハブ工法のように、工場から運ばれて現場で積み上げる時には既に壁や外壁等が出来上がっているのとは状況が全く異なっています。 現在は屋根や外壁のタイルが張られておらず、断熱材等も入っていない状況なので内部がスケスケの状態であり、家の構造や骨組が良くわかります。 家全体でも自然換気を行なうために、屋根の垂木?が一部三角形に切り込まれ(ここからも喚気するそうです)ていたり、外壁と内壁の間に隙間が取られていたりと、現在の家には様々な工夫がされています。 私が想像していた以上に木がふんだんに使われているというイメージを受けました。 まだ壁がないので、壁の位置にある木の間を抜けてとなりの部屋に行けるのも面白いと感じました。 忍者の、壁抜けの術といった感じです。
このような状況からわかりますように、他の建築会社と比較して2X4の住宅の方が家の設計等においてはかなり自由度が高いような感じがします。 私も幾つか他の住宅メーカーと打ち合わせを行ないましたが、どうしてもプレハブ工法の関係からか、ユニット単位の考えから抜け出せず、最終的にはカタログにある家とそんなに変わらないような感じを受けました。 ある意味で、その方が安心だし、多くの実績のある設計となるので良いのかもしれません。 私と家内はいろいろと注文付けるので、やはり2X4で施工したのが良かったのではと感じています。 かなり、カスタムメードの家になっていると感じています。
素人では、骨組みだけの現段階ではまだまだ内部の構造イメージがわからないのですが、もう少しすれば、かなり内装が進み、色彩や形、質感等も見えてくるので、より具体的にイメージをつかむことが出来るようになると思います。
インシリコデータの事務所は3階になりますが、大工さんも「いい部屋だよ」と言ってくれました。
実際に行くと、想像以上に視界が良く、また三方向に窓がありベランダもあるので風通しも良く、連日の暑さにもかかわらず、結構過ごしやすい部屋になっているとの話でした。 出来上がるのが、とても楽しみになってきました。
今後は内装と外装工事が急速に進むので、家としてのイメージをよりつかみやすくなると思います。 また、進捗状況を報告いたします。
以上
2013/07/04
セミナーに出席して感じた事と考え(2):Impressions and my thoughts felt to attend the meeting (2)
第1回「p-Medicine時代の薬づくり ( Drug development of p-Medicine era ) 」
本セミナーはサイバー絆研究所 (Institute for Cyber Associates, ICA) が主催するシリーズ研究講演会 Visionary Seminar「薬づくりの新しいR&Dモデルを探る」のセミナーとなります。今回はその最初の講演会となり、タイトルは「p-Medicine時代の薬づくり」です。
セミナー自体は6月20日(木)に実施されましたが、その後仙台に帰って実家で作業をしたり、幾つかの会議等が重なり、時間が取れなく、報告が今日となってしまいました。
セミナーですが、大きく二部に分けて構成されています。
第一部のタイトルは「創薬への情報計算技法の活用-これまでとこれから」として、以下に示す3つの講演がなされました。
①創薬におけるインシリコ(コンピュータ)技術の活用事例として、QSARをきれいに適用して抗がん剤の開発に導いた多田先生の事例。 創薬過程で発生してくる様々な問題を、数多くのQSARの経験と洞察を基本に解決してゆくことで創薬に結び付けるもので、QSARの真髄ともいうべき実例です。 大鵬薬品は開発されたこの抗がん剤の製造工場を約100億円かけて今年度中に建設するという発表をしました。 私は日経新聞で読みました。
②創薬研究を支援する基本となる様々な創薬支援データベースを創薬研究者の立場から行なっているという報告。 内容的には創薬や医療現場で起きつつある最新の研究に関する水口先生よりの発表。 トキシコゲノミクスPJの研究成果がデータベースとして新たに展開されていることも報告されました。
③石田先生はiPS細胞を肝臓へと導き、種々薬物との相互作用研究を日々行なっております。 この最新の研究発表と、今後の創薬の大きな形としてiPS創薬とインシリコ技術を結び付けた計算毒性学の展開を提案されました。 日本での計算毒性学発展のルーツとなれば素晴らしいと感じました。
第二部のタイトルは「p-Medicine時代の薬づくり」として、以下の2講演がなされました。
①オミックス医療を先導されている田中先生は、今後は個人のゲノム情報と生活環境を結びつけた総合的な医療を目指す事が大事であるという考えに基づいて活躍されております。 GET(Genomes x Environments = Traits)ということで、個人の生活環境を取り入れた網羅的な疾患解析の実現と今後の医療のあり方と研究事例について発表されました。
②神沼先生は、日常的に病気になるのを予防する3次予防の重要さを強調されました。 現在展開されている様々な医療関連技術を総合的にまとめ、同時に情報関連技術を3次予防の中に組み込んでゆく。 このような医療のあり方が今後の医療に大事であり、最終的には患者と医師や医療機関とのより緊密なコミニュケーションを実現した総合医療を目指すという提案をされました。
「p-Medicine」という言葉を初めて聴かれる方も多いと思います。 この言葉については先の資料に概要が掲載されていますのでそちらを参照してください。
文責:
株式会社 インシリコデータ 湯田 浩太郎
本セミナーはサイバー絆研究所 (Institute for Cyber Associates, ICA) が主催するシリーズ研究講演会 Visionary Seminar「薬づくりの新しいR&Dモデルを探る」のセミナーとなります。今回はその最初の講演会となり、タイトルは「p-Medicine時代の薬づくり」です。
セミナー自体は6月20日(木)に実施されましたが、その後仙台に帰って実家で作業をしたり、幾つかの会議等が重なり、時間が取れなく、報告が今日となってしまいました。
セミナーですが、大きく二部に分けて構成されています。
第一部のタイトルは「創薬への情報計算技法の活用-これまでとこれから」として、以下に示す3つの講演がなされました。
①創薬におけるインシリコ(コンピュータ)技術の活用事例として、QSARをきれいに適用して抗がん剤の開発に導いた多田先生の事例。 創薬過程で発生してくる様々な問題を、数多くのQSARの経験と洞察を基本に解決してゆくことで創薬に結び付けるもので、QSARの真髄ともいうべき実例です。 大鵬薬品は開発されたこの抗がん剤の製造工場を約100億円かけて今年度中に建設するという発表をしました。 私は日経新聞で読みました。
②創薬研究を支援する基本となる様々な創薬支援データベースを創薬研究者の立場から行なっているという報告。 内容的には創薬や医療現場で起きつつある最新の研究に関する水口先生よりの発表。 トキシコゲノミクスPJの研究成果がデータベースとして新たに展開されていることも報告されました。
③石田先生はiPS細胞を肝臓へと導き、種々薬物との相互作用研究を日々行なっております。 この最新の研究発表と、今後の創薬の大きな形としてiPS創薬とインシリコ技術を結び付けた計算毒性学の展開を提案されました。 日本での計算毒性学発展のルーツとなれば素晴らしいと感じました。
第二部のタイトルは「p-Medicine時代の薬づくり」として、以下の2講演がなされました。
①オミックス医療を先導されている田中先生は、今後は個人のゲノム情報と生活環境を結びつけた総合的な医療を目指す事が大事であるという考えに基づいて活躍されております。 GET(Genomes x Environments = Traits)ということで、個人の生活環境を取り入れた網羅的な疾患解析の実現と今後の医療のあり方と研究事例について発表されました。
②神沼先生は、日常的に病気になるのを予防する3次予防の重要さを強調されました。 現在展開されている様々な医療関連技術を総合的にまとめ、同時に情報関連技術を3次予防の中に組み込んでゆく。 このような医療のあり方が今後の医療に大事であり、最終的には患者と医師や医療機関とのより緊密なコミニュケーションを実現した総合医療を目指すという提案をされました。
「p-Medicine」という言葉を初めて聴かれる方も多いと思います。 この言葉については先の資料に概要が掲載されていますのでそちらを参照してください。
文責:
株式会社 インシリコデータ 湯田 浩太郎
登録:
投稿 (Atom)