スタンフォード大学が日米のTwitterユーザーを対象に行った調査で、感情的な投稿がバイラルになりやすい理由が判明

スタンフォード大学が日米のTwitterユーザーを対象に行った調査で、感情的な投稿がバイラルになりやすい理由が判明 科学色々

この研究結果は、ソーシャルメディアの利用者は、他者の投稿が自分の文化的価値観を支持するものではなく、侵害するものである場合、その投稿に影響される傾向があることを示唆しています。

よくあることです。楽しい時間を過ごそうと思ってソーシャルメディアにログインしたのに、1時間後には怒りでいっぱいになっている。なぜこのようなことが起こるのでしょうか。

スタンフォード大学のJeanne Tsai教授とBrian Knutson教授らの研究チームは、このパズルの鍵となる部分に文化が関わっていることを示唆しています。9月7日にJournal of Personality and Social Psychology誌のオンライン版に掲載された新しい研究では、日本と米国のユーザーがTwitterに投稿した「センチメント」と呼ばれる感情的な内容を評価した結果、ユーザーは自分の文化的な価値観を支持するのではなく、それを侵害するような投稿に影響を受ける傾向があることがわかりました。

文化的ニュアンス

文化的ニュアンス

スタンフォード大学が日米のTwitterユーザーのツイートを調査した結果、感情の文化的な違いがTwitterで流行するものに影響を与えることが明らかになった。©Brian Knutson

ソーシャルメディアは世界中に広がっていますが、現在の研究では、欧米以外の地域のユーザーではなく、米国のユーザーに焦点が当てられていることが多いようです。

主著者で大学院生のTiffany Hsu氏は、「文化を考慮しないと、何かが欠けてしまうような気がしたんです。ソーシャルメディアや人と人とのつながりにおいて、文化はとても重要な要素です。」と述べています。

例えば米国では、ほとんどの人が「ワクワクする」「楽しい」「ポジティブな気分になりたい」と答えます。しかし、これまでの調査では、米国のソーシャルメディアユーザーは、怒りや激情などのネガティブな感情を表現した投稿に最も影響を受けていることがわかっています。このパラドックスの原因は何でしょうか?

スタンフォード大学の研究者たちは、欧米以外の国、つまり日本のソーシャルメディアユーザーに注目しました。これまでの研究で、日本人は一般的に、米国の人々とは異なる、覚醒度の低い影響(感情)(例:冷静さ、平静さ)を重視することがわかっています。

そこでチームは、日本のユーザーが自分の価値観に反するソーシャルメディアの投稿にも影響を受けるかどうかを検証するために、アメリカと日本の両方のコンテンツに適用可能な感情分析アルゴリズムを開発しました。

この技術を一から構築するのは簡単なことではありませんでした。チームは、3,481件の日本語ツイートから手作業でコード化したラベルをもとに、機械学習を用いてこの技術を実現しました。このプログラムは、英語の短文をポジティブかネガティブか、またその感情の強さ/喚起度でスコアリングする「SentiStrength」をベースにしていました。研究者たちは、日本語のテキストについても同様のアルゴリズムを作成しました。

その結果、一般的に、アメリカのソーシャルメディアユーザーは、ポジティブなコンテンツ(例:幼稚園の卒園式の写真が一番かわいい!😍❤)を多く投稿するのに対し、日本のユーザーは、それぞれの文化的価値観に沿って、低喚起のコンテンツ(例:もう一週間試験が終わったら、ちょっと自由になる🏀😒)を多く投稿することがわかりました。これらの結果は、個人的な問題、エンターテインメント、政治など、さまざまなトピックに広がっています。

人文科学部の心理学教授であるKnutson氏は、「ソーシャルメディアの利用者は、自由にさせておくと、文化的に価値のあるコンテンツを作り出すようです。」と言います。

しかし、他の人の投稿を見た後では、その反対のことが起こるようです。

スタンフォード大学文化・感情ラボの所長であるTsai教授は、「ユーザーは、自分の文化的価値観に反する感情が含まれている場合に、他人の投稿に最も影響を受けるようです。アメリカでは、ユーザーは怒りや嫌悪感などの高覚醒のネガティブなコンテンツに最も影響を受けますが、日本では、ユーザーは興奮などの高覚醒のポジティブな状態に最も影響を受けます。」と説明しています。

研究チームは、この現象を「感情のハイジャック」と名付けました。これは、ユーザーの文化的価値観に反するコンテンツに触れることで、ユーザー自身のコンテンツが一時的に方向転換するというものです。

意味合い

感情を乱すコンテンツの発信源はまだ明らかになっていませんが、プロパガンダや誤報を伴うことが多いことから、悪意のあるアクター、あるいはアルゴリズムからのものである可能性があると研究者は述べています。出所にかかわらず、破壊的なコンテンツが測定できるということは、ユーザーが破壊的な感情を持つコンテンツを識別するためのツールが開発されるかもしれないことを示唆しています。

Knutson氏は、「自制心は素晴らしいものですが、限界があります。電子メールのスパムフィルターのように、ソーシャルメディアに感情フィルターを適用するためのソフトウェアを開発できないだろうか?私たちは、人々が自分の目に触れるものを選択する力を与えることに興味があります」と述べています。

この研究を受けて、チームは、ソーシャルメディアのユーザーが自分の感情体験を「ハイジャック」する可能性のある投稿を特定できるツールの開発に取り組んでいます。そうすれば、ユーザーが価値のない感情状態に陥る時間を減らし、同時に誤った情報を最小限に抑えることができるかもしれません。

本研究には、スタンフォード大学のMichael Ko氏、法政大学のYu Niiya氏、ウォルバーハンプトン大学のMike Thelwall氏も協力しています。

本研究の一部は、米国国立科学財団およびスタンフォード人間人工知能イニシアチブの支援を受けています。

Published by Stanford University, Journal:Journal of Personality and Social Psychology. DOI: 10.1037/pspa0000282

コメント

タイトルとURLをコピーしました