本文へスキップします。

フリーワード検索 検索

【全】ヘッタリンク
【全・SP】バーガーリンク
たいとる

JMRAイノベーション・キャスト

ないよう


配信内容


<本シリーズの趣旨>

    国際的に市場調査業界が「インサイト産業」に変化する中、マーケティング・リサーチ自体の位置づけが変わろうとしています。マーケティング・リサーチはサイエンスであり、常に新たなイノベーションが起きています。
    ・これまで正しいと思われていたことに、新たな解釈が必要になる
    ・新しいと思われていることが、実は昔から存在していたのに気づいていなかった
    といったことが、あるのではないでしょうか?
    リサーチ・イノベーション委員会では、『イノベーション・キャスト ― 新時代の調査への提言』と題して、マーケティング・リサーチに「新しい視座と提言を投げかける」ことを目的に、この動画シリーズをお届けしたいと考えています。“キャスト”は、私たちから「皆様へのなげかけ」を表しています。どうぞお気軽にご覧ください。


<ご連絡事項>

    本シリーズで取り上げる課題への打開策は、他にもいろいろあると思います。ぜひ教えてください。意見交換しましょう。
    「もっとうまいやり方がある」
    「うちではこうしている」・・・ など、
    ご意見・ご質問をJMRA宛にお送りください。
    ⇒ office*jmra-net.or.jp(迷惑メール防止のため@を*に表示変更しております) 
第3回
第3回:「市場調査業界」から「インサイト産業」への転換
(公開:2021年2月22日(月) 公開終了:2022年2月22日(火) )

ESOMARが昨年9月に公表した業界統計『Global Market Research 2020』が、世界の市場調査関係者を大いに驚かせました。突然、世界市場規模が前年比で約2倍になり、「世界トップランキング」企業の顔ぶれも様変わりしたのですから、無理もありません。
市場調査業界にいったい何が起こっているのか、直近の状況と課題をご紹介します。

第3回の資料はこちら

講師のご紹介

一ノ瀬裕幸   リサーチ・イノベーション委員会

こちらの動画に対する意見交換 (クリックすると展開します)
意見(高橋 直樹さん)
諸手を挙げて賛同します。数年前から、日本の調査業界で業界を挙げてこういう動きが始まることを心待ちにしてきましたし、あちこちで起爆剤の一助になればと発言をしてきました。世界中で起こっている不可逆な方向性であることは間違いないですが、進捗の状況は国によってかなり異なります。日本は明らかに出遅れています。微力ながらこの大転換のサポートをしたいと思っています。


第2回
第2回:『有意性検定に未来はあるか』
(公開:2021年2月9日(火) 公開終了:2022年2月9日(水))

アメリカ統計学会(ASA)が2016年に有意性検定の誤解と誤用をいましめる声明を発表し、世界の統計ユーザーに衝撃を与えました。ASAは「有意確率pは効果の大きさを表すものではなく、本当に知りたい仮説が正しい確率を測るものではない」と指摘しました。この声明の意味を解題し、マーケティング・リサーチャーが今後どう検定に対応すべきかを提言します。

第2回の資料はこちら

講師のご紹介
朝野煕彦  東京都立大学/専修大学元教授

こちらの動画に対する意見交換 (クリックすると展開します)

「スズキ」さん)検定が有効に使える、適切なサンプル数というのは示せるのでしょうか。前半の数値例のように、検定は数十から数百人規模のデータに適した方法のように思われます。なぜ、そのような検定が作られたのでしょうか。
(朝野)歴史的に、せいぜい数十の区画にしか種が撒けなかった農事試験の分析法として、推測統計学が開発されたからです。近代の統計学は農事試験所で生まれました。

(匿名希望さん)原データは正規分布に従う必要があるのでしょうか。平均値の差の検定をするには、調査データが正規分布しなければならないと先生は言っておられるのですか?
(朝野)そのような制約はありません。ただし、確率分布が正規分布する必要はありませんが、実験群は実験群で、ある一定の確率分布に従ってデータが発生しなければなりません。統制群は別の確率分布で構いませんが、統制群の中でデータは同一の確率分布に従わなければ、検定の前提を満たしません。今回ご紹介した例では、同じ条件に該当するモニターが同一の状況を経て測定値を生み出しているので、同一の確率分布に従うとみなしたのです。

(匿名希望さん)モンテカルロ法では、どんな確率分布に従う乱数でも発生させることができるのでしょうか。自分が持っている統計ソフトには、正規分布と一様分布の乱数だけしかないのですが。
(朝野)MCMC(マルコフ連鎖モンテカルロ法)を使えばできます。詳しく説明するにはスペースが足りませんので、まずはネットで検索してみてください。

(「初心者」さん)ベイズ統計学の予測分布を使えば、仮説が正しい真の確率が分かるのでしょうか?
(朝野)ベイズ統計学であっても、普遍的な真実を知ることはできません。結論が調査データに依存するのは、伝統的な推測統計学と変わりません。

(匿名希望さん)なぜ、これまで仮説検定への誤解を誰も教えてくれなかったのでしょうか。統計教育に問題があったのでしょうか。
(朝野)理由はいくつもあったと思います。統計学の研究者にとって、利用者が検定をどう理解しているかは研究上の重要なテーマには入らなかったためではないでしょうか。

(「統計学徒」さん)①失礼な言い方になってしまいますが、「しょせん、統計分析を使っても厳密なことは分からない」と心得ておけば、今回の指摘はさほど気にするような問題ではないと思いますが?
(朝野)誤解をしたままでは、時間が経っても気にしないでよい状態にはならないと思います。

(「統計学徒」さん)②今回、先生は「仮説が正しい比率」という言葉を使いましたが、ふつうは「確率」と言いませんか?
(朝野)ベイズ統計学でも、事後確率とか予測分布の確率といいます。シミュレーションしたデータで集計した結果は厳密にいえば比率であって、数学的な確率ではないので、乱数を発生するつど結果が変わります。けれども、気にするほど結果が違うかといえば、乱数の数が多くなると実質的にはほぼ同じです。あまり神経質にならなければ、確率と呼んで構わないと思います。 

(「村人B」さん)推測統計では、グループについて何を前提にしているのでしょうか。
(朝野)母集団と標本抽出を、推測統計学ではどうとらえているかという重要な疑問です。この本質に触れずに、検定の手続きだけを書いている統計ガイドが多いように思います。ぜひ最終回で議論したいテーマです。

(「村人B」さん)対立仮説をたてて検定すれば、何も問題はないように思うのですが。
(朝野)ネイマン・ピアソン流の対立仮説を具体化する自然な方法がありません。対立仮説は一見もっともらしいのですが、空理空論だったのでしょう。「H0:等しくない」が帰無仮説だったとして、では調査をする前に「H1(対立仮説)」はいくつの差がよいのかを一意に決められるでしょうか? むしろモンテカルロ法などのシミュレーションで、事後的にさまざまな効果が出現する割合を出す方が実際的だと思います。

(「初心者」さん)今回のキャストで紹介された平均値の差の検定は、検定法のごく一部なのではないでしょうか。他の検定法にも指摘されたのと同じ欠陥があるのでしょうか。
(朝野)検定には順序データやカテゴリーデータのためのノンパラメトリック検定という一群の方法がありますし、数量的なデータを検定する場面でもグループ数が1つか2つか多数かの場合、さらにデータ数の違いによっても方法が異なります。検定論は各手続きによって論理が一貫しない雑然とした方法群になっています。それぞれの検定が成り立つ前提条件が違いますし、限界も異なります。今回、説明としてあげた平均値の差の検定は、市場調査の分野でよく使われてきた方法ですので、取り上げました。

((匿名希望さん)朝野先生は棄却水準とか危険率という表現に否定的なのでしょうか。
(朝野)棄却水準あるいは危険率の設定には、科学的・客観的な根拠がありません。p値だけを報告して、そこから先は意思決定者に判断を任せるというのが近年の流儀です。p=0.154をどう理解するかは、エンドユーザーに任せるという意味です。「有意vs有意でない」では2値の情報しかありませんから、p値の方が情報が多いとは言えますね。

(「素朴な疑問」さん)検定の解釈の間違いはどうして発生し、定着してしまったのでしょうか。
(朝野)「高度に有意であることが、効果が大きいことの証拠になる」という誤解そのものがユーザーにとって都合がよい誤解だったために、検定の利用が増えて社会的に定着してきたのでしょうね。


第1回
第1回:『調査は既存の調査結果を今日の決定に活かしているか』~ベイズ統計学による過去と現在の融合
(公開:2021年1月26日(火) 公開終了:2022年1月26日(水) )

マーケティング・リサーチは、過去の調査から得られた知識を今日の決定にどう活かしているでしょうか? とりわけ新しいデータがごく僅かで、それだけで意思決定をするには心細い場合にどうすればよいのでしょうか? ・・・ というのが今回の論点です。
そこで、ベイズ統計学の応用例としてスパムメールのフィルタリング事例をご紹介します。過去の知識を取り込む思想が従来の調査とは異なっていますので、皆さんの業務にとって参考になるかどうか、ぜひ考えていただければと思います。

第1回の資料はこちら

講師のご紹介
朝野煕彦  東京都立大学/専修大学元教授
こちらの動画に対する意見交換 (クリックすると展開します)
意見(田村 覚さん)
経験上、定期的に行っている調査(例えば年4回)の結果を分析する際、最新調査のデータのみを使って分析することが多く、過去と現在のデータを融合できていないケースが多い。
過去と現在の分析結果の比較に留まらず、データ自体を融合することで更に精度の高い分析につながる余地はありそうだ。
スパムメールの事例を参考に、自社の調査に活用できないか検討していきたい。

(匿名希望さん)過去の知識の更新が行われるタイミングは、フィルタリングの前ですか後ですか?
(朝野)フィルターを通過して受信されたメールにユーザーが反応して、初めてメールの分類が決まるわけですから、知識の更新はフィルタリングの後、ということになります。

(「初心者」さん)1回限りのアドホック調査であっても、企業(調査会社)は原データを保管していると思います。なぜ、調査が終わっても原データを保管するのでしょうか?
(一ノ瀬)①その調査時点では1回限りと想定されたとしても、将来的に見直しが入ったり再調査や再集計がかかる可能性があり、また参考値として生きるかもしれませんので、全ての調査結果を保管またはデータベース化している調査会社が多いと思われます。クライアント側でも同様です。その際、容易に検索ができるようにインデックスやタグ付けが行われていることが望まれます。 ②JIS Y (ISO) 20252でも、「4.1.3.2 調査プロジェクト活動の記録」で「プロジェクトの追跡及び再現を可能とするために」、プロジェクトの記録は1次記録(調査原票など)12か月間、それ以外は24か月間の保存が義務づけられています。 ③付随的に、会計監査に備えた証拠記録として保存される側面もあります。

(匿名希望さん)フィルタリングの場合で結構ですが、過去の知識と目の前のメールの、どちらがより重要なのでしょうか?
(朝野)両方を使わなければ判定できないので、どちらも欠かせません。ただし、知識が個々のメールで大きく更新されることはないので、フィルタリングにおいては過去の知識に重みがあるといえるでしょう。