チャットGPT

ニュース

ホームページホームページ / ニュース / チャットGPT

Aug 18, 2023

チャットGPT

PubMed Google Scholar でこの著者を検索することもできます。所属機関を通じてこの論文に完全にアクセスできます。 ChatGPT などの AI チャットボットは、科学データベースとリンクされて、

PubMed Google Scholar でこの著者を検索することもできます

この記事には所属機関を通じて完全にアクセスできます。

ChatGPT などの AI チャットボットは科学データベースとリンクされて、会話型の検索エクスペリエンスを作成しています。クレジット: Gabby Jones/Bloomberg via Getty

Google の Bard や Microsoft の Bing など、インターネット検索エンジンに登場した会話型 AI 搭載チャットボットは、科学検索もますます変化させようとしています。 8月1日、オランダの出版大手エルゼビアは、同社のScopusデータベースの一部ユーザー向けにChatGPTを活用したAIインターフェースをリリースし、一方英国のデジタルサイエンス社は、自社のDimensionsデータベース用のAIラージ言語モデル(LLM)アシスタントの非公開トライアルを発表した。 一方、米国企業クラリベイトは、自社の Web of Science データベースに LLM を導入することにも取り組んでいると述べた。

科学検索用の LLM は新しいものではありません。Elicit、Scite、Consensus などの新興企業はすでにそのような AI システムを導入しており、無料の科学データベースや (Scite の場合) に依存して、分野の発見を要約したり、トップの研究を特定したりするのに役立ちます。出版社との提携を通じて、ペイウォールで保護された研究記事にアクセスできます。 しかし、科学の要約や参考文献の大規模な独自データベースを所有する企業も、今や AI ラッシュに加わりつつあります。

エルゼビアのチャットボットは「Scopus AI」と呼ばれ、パイロット版として発売されており、研究者が馴染みのない研究テーマの概要を素早く入手できるようにするための、軽くて遊び心のあるツールを目的としていると、このツールの開発を監督したロンドンのエルゼビア幹部マキシム・カーン氏は語る。 自然言語の質問に応答して、ボットは LLM GPT-3.5 のバージョンを使用して、研究トピックに関する流暢な要約パラグラフ、引用文献、および調査すべきさらなる質問を返します。

テキストベースの質問に応答して、Scopus AI は研究トピックの流暢な概要と関連参考文献を返します。クレジット: Scopus AI

検索、特に科学検索における LLM に関する懸念は、LLM が信頼できないことです。 LLM は自分たちが生成するテキストを理解できません。 文体的にもっともらしい言葉を吐き出すだけで機能します。 彼らの出力には事実誤認や偏見が含まれている可能性があり、学者がすぐに発見したように、存在しない参考文献をでっち上げている可能性もあります。

したがって、Scopus AI には制約があります。Scopus AI は、5 つまたは 10 件の研究要約を参照することによってのみ答えを生成するように促されます。 AI はそれらの要約自体を見つけません。むしろ、ユーザーがクエリを入力した後、従来の検索エンジンが質問に関連するものとしてそれらを返します、とカーン氏は説明します。

他の多くの AI 検索エンジン システムも同様の戦略を採用していると、AI 検索ツールをフォローしているシンガポール管理大学の図書館員アーロン テイ氏は指摘します。 LLM は別の検索エンジンが取得する関連情報の要約に限定されているため、これは検索拡張生成と呼ばれることもあります。 「LLM は今でも時々幻覚を見せたり、でっちあげたりすることがあります」とテイ氏は言い、同様の技術を使用する Bing や Perplexity などのインターネット検索 AI チャットボットに関する研究を指しています。

エルゼビアは、最近の論文をピックアップするために、自社の AI 製品の検索を 2018 年以降に発行された論文のみに限定し、返信の中で返された要約を適切に引用し、安全でないクエリや悪意のあるクエリを回避し、存在するかどうかを示すようにチャットボットに指示しました。受信した要約には関連情報がありません。 これにより間違いを避けることはできませんが、間違いを最小限に抑えることができます。 エルゼビアはまた、ボットの「温度」(応答の中で最ももっともらしい言葉から逸脱する頻度を表す尺度)の設定を低くすることで、AI の予測不可能性を減らしました。

ユーザーはボットの段落をコピーして自分の論文に貼り付けるだけで、事実上ツールを盗用する可能性がありますか? その可能性はある、とカーン氏は言う。 エルゼビアはこれまで、研究者に要約を責任を持って使用するよう求めるガイダンスを提供してこの問題に取り組んできた、と同氏は言う。 カーン氏は、資金提供者や出版社も同様のガイダンスを発行しており、例えば論文の執筆や査読の実施などでLLMが使用されている場合には透明性のある開示を求め、場合によってはLLMをまったく使用すべきではないと述べていることを指摘した。