テキスト生成AIシステムに関する技術論的構造分析-WEB検索エンジンとの差異と連関

WEB検索エンジン・プログラムとテキスト生成AIエンジン・プログラムとの構造的差異
  1. 異なる文章表現間の同一性・関連性・差異性を、「literal(逐語的)なレベル」で捉えるWEB検索エンジン・プログラム vs 、「文章表現のパターンやコンテクストなど文章表現の内的構造というレベル」においても捉えるテキスト生成AI
  2. WEB検索エンジン・プログラムは、検索キーワードの意味を、同義語・類義語・略語に関する辞書データベースを用いて、異なる文章表現間の同一性・関連性・差異性の度合いに関する「判断」処理作業をおこなっている。すなわち、異なる文章表現間の同一性・関連性・差異性を、literalなレベルで「判断」している。

    例えばGoogle検索において、同義語や類義語に関する辞書データベースを利用していることは[1]や[2]の特許情報に示されている。

     

    これに対して、生成AIシステム・プログラムは、大量のデータから学習して「大規模言語モデル」(Large Language Models、LLM)を創り出して、様々な「判断」処理をおこなっている。すなわち、異なる文章表現間の同一性・関連性・差異性を、literalなレベルだけでなく、文章表現のパターンやコンテクストなど文章表現の内的構造というレベルにおいても「判断」している。

     

    例えば、大規模言語モデルの構成要素の一つには、「(ある特定のコンテクストにおいて)ある特定の単語の次に、どのような単語がどの程度の出現確率で登場するのか?」という単語出現確率に関するデータベースがある。また実際の生成AIシステムにおいてどこまで実装されているのかは明確ではないが、文章のパターンやコンテクストを対象として、直喩(simile)、隠喩(暗喩,metaphor)、換喩(metonymy)、提喩(synecdoche)、諷喩(allegory)などの「比喩」表現的構造という視点から同一性・関連性・差異性の「判断」処理をおこなうことも研究されている。
     単語間の現象的関係の中に、直喩、隠喩、換喩、提喩、諷喩といった様々な「比喩」表現的構造が存在しているということは、「現象的構造に関する構造」(単語間の連接という現象的構造の中に、メタ的レベルにおける構造が存在し、それらの構造がいくつかに分類されるということ)の存在を示すものである。
     

     
  3. 生成AIの事前訓練に用いられたデータ、および、生成AIがテキスト自動作成に利用するデータの「質」問題
  4. テキスト生成AIシステムの事前訓練に用いられたデータ、および、テキスト自動作成に利用するデータとしては、著作権者の許諾を得たデータはさほど多くはないと思われる。大部分のデータは、public domainのデータやWEB上に存在するopen contentのデータであると思われる。
     生成AIの回答の精度の相対的限界が存在する一つの要因は、「著作権の法的保護期間内にある良質なデータを大量には利用できていない」ということにある。

     
  5. 「事実と価値」、「事実と推測」の区別を基本的には持たないinput-outputシステムとしての、テキスト生成AI
  6. テキスト生成AIシステムも、基本的には input – processing unit – output構造で理解可能と思われる。

     現行のテキスト生成AIシステムは、inputデータの中に、「事実」言明と「価値」言明の区別、「事実」と「推測」の区別をメタデータとして持つような設計には基本的にはなっていない。(そうした区別構造を持つ生成AIシステムを技術的には考えられるが、現行のテキスト生成AIシステムのハードウェア能力的問題[高精度化と高速化の相反的関係も含む]や、「価値」判断に関わる倫理的問題[どのような「価値」を優先させるのかも含めて、「価値」判断に関しては多様な考え方があり、社会的に広く一致・共通している点もある程度は存在するが、それほど多くはない。]などから実装することは、誹謗中傷的言明・人種差別的言明・犯罪助長的言明など一部の例外を除き、現段階では基本的にはされてはいない。)
     また学習(training)として、最初に与えられたinputデータを、外部的な「事実」データ群との一致・不一致によって「事実」データと「非-事実」データ(推測、物語、空想など)に区分する学習や、言明の信頼度を算出するような学習をさせるような製品設計にはなっていない。すなわち、「事実」言明と「価値」言明の区別、「事実」と「推測」の区別といった差異構造を事後的に内部的に持つような設計には基本的にはなっていない。

  7. 「事実」的内容に関わるユーザーからの質問に対する回答の生成に対する製品設計(Product design)の差異-なぜChatGPT3.5は「明治大学経営学部の学科構成はどのようなものですか?」などといった事実に関する問いに対して、まったく誤った回答をするのか?
  8. 「事実」的内容に関わるユーザーからの質問に対する回答に関して、ChatGPT無料版(ChatGPT3.5)はまったく誤った回答をすることがよくある。こうしたことが原因となって、「生成AIシステムの回答は信頼できない。」という一般的印象が生み出されている。
     しかしながらChatGPT無料版(ChatGPT3.5)の回答の信頼性の低さに関して、「現行の生成AIシステム技術それ自体の構造的限界を示している」という理解はあまり適切ではない。欠陥に起因するというよりも、に対する一般的な懐疑の
    信頼度の高低に関するテキスト生成AIの判定法
    生成AIシステムも、基本的には input – processing unit – output構造である。それゆえ、processing unitによる処理プロセスにおいて、「信頼度が高いデータ」群を明示的に指定することによって、より信頼度の高い回答を出力するように設計することはできる。例えばPerplexity AIがChatGPTよりも信頼度の高い回答を生成する確率が高いのはそうした設計になっているためと思われる。なおChatGPT4もオプションのBrowse with Bingオプションを選択することでより信頼度の高い回答をするような設計になっている。

    「なぜChatGPT3.5は下記WEBページのOpenAI LP(2023)「明治大学経営学部の学科構成はどのようなものですか?」などといった事実に関する問いに誤った回答をするのか?」といった趣旨の問題に関しては下記のPerplexity AIによる2023/6/8回答ChatGPT4.0による2023/6/8回答が参考になる。
     ただしChatGPT4.0による2023/6/8回答に挙げられている要因だけでは、「明治大学経営学部の学科構成」に関して間違った回答をするのかを説明はできない。
    「明治大学経営学部の学科構成」に関して間違った回答をする理由に関する説明の正確性・信頼度に関しても、Perplexity AIの方がChatGPT4よりも高い。

     なお本問題については佐野正博(2023)もご参照ください。

     

旧バージョン: https://www.sanosemi.com/sano_lecture/archives/6002

カテゴリー: AIに関する技術論的考察 | コメントする

テキスト生成系AIシステムに関する技術論的構造分析-WEB検索エンジンとの差異と連関

WEB検索エンジン・プログラムとテキスト生成系AIエンジン・プログラムとの構造的差異
  1. 異なる文章表現間の同一性・関連性・差異性を、「literal(逐語的)なレベル」で捉えるWEB検索エンジン・プログラム vs 、「文章表現のパターンやコンテクストなど文章表現の内的構造というレベル」においても捉えるテキスト生成系AI
  2. WEB検索エンジン・プログラムは、検索キーワードの意味を、同義語・類義語・略語に関する辞書データベースを用いて、異なる文章表現間の同一性・関連性・差異性の度合いに関する「判断」処理作業をおこなっている。すなわち、異なる文章表現間の同一性・関連性・差異性を、literalなレベルで「判断」している。

    例えばGoogle検索において、同義語や類義語に関する辞書データベースを利用していることは[1]や[2]の特許情報に示されている。

     

    これに対して、生成系AIシステム・プログラムは、大量のデータから学習して「大規模言語モデル」(Large Language Models、LLM)を創り出して、様々な「判断」処理をおこなっている。すなわち、異なる文章表現間の同一性・関連性・差異性を、literalなレベルだけでなく、文章表現のパターンやコンテクストなど文章表現の内的構造というレベルにおいても「判断」している。

     

    例えば、大規模言語モデルの構成要素の一つには、「(ある特定のコンテクストにおいて)ある特定の単語の次に、どのような単語がどの程度の出現確率で登場するのか?」という単語出現確率に関するデータベースがある。また実際の生成系AIシステムにおいてどこまで実装されているのかは明確ではないが、文章のパターンやコンテクストを対象として、直喩(simile)、隠喩(暗喩,metaphor)、換喩(metonymy)、提喩(synecdoche)、諷喩(allegory)などの「比喩」表現的構造という視点から同一性・関連性・差異性の「判断」処理をおこなうことも研究されている。
     単語間の現象的関係の中に、直喩、隠喩、換喩、提喩、諷喩といった様々な「比喩」表現的構造が存在しているということは、「現象的構造に関する構造」(単語間の連接という現象的構造の中に、メタ的レベルにおける構造が存在し、それらの構造がいくつかに分類されるということ)の存在を示すものである。
     

     
  3. 生成系AIの事前訓練に用いられたデータ、および、生成系AIがテキスト自動作成に利用するデータの「質」問題
  4. テキスト生成系AIシステムの事前訓練に用いられたデータ、および、テキスト自動作成に利用するデータとしては、著作権者の許諾を得たデータはさほど多くはないと思われる。大部分のデータは、public domainのデータやWEB上に存在するopen contentのデータであると思われる。
     生成系AIの回答の精度の相対的限界が存在する一つの要因は、「著作権の法的保護期間内にある良質なデータを大量には利用できていない」ということにある。

     
  5. 「事実と価値」、「事実と推測」の区別を基本的には持たないinput-outputシステムとしての、テキスト生成系AI
  6. テキスト生成系AIシステムも、基本的には input – processing unit – output構造で理解可能と思われる。

     現行のテキスト生成系AIシステムは、inputデータの中に、「事実」言明と「価値」言明の区別、「事実」と「推測」の区別をメタデータとして持つような設計には基本的にはなっていない。(そうした区別構造を持つ生成系AIシステムを技術的には考えられるが、現行のテキスト生成系AIシステムのハードウェア能力的問題[高精度化と高速化の相反的関係も含む]や、「価値」判断に関わる倫理的問題[どのような「価値」を優先させるのかも含めて、「価値」判断に関しては多様な考え方があり、社会的に広く一致・共通している点もある程度は存在するが、それほど多くはない。]などから実装することは、誹謗中傷的言明・人種差別的言明・犯罪助長的言明など一部の例外を除き、現段階では基本的にはされてはいない。)
     また学習(training)として、最初に与えられたinputデータを、外部的な「事実」データ群との一致・不一致によって「事実」データと「非-事実」データ(推測、物語、空想など)に区分する学習や、言明の信頼度を算出するような学習をさせるような製品設計にはなっていない。すなわち、「事実」言明と「価値」言明の区別、「事実」と「推測」の区別といった差異構造を事後的に内部的に持つような設計には基本的にはなっていない。

  7. 「事実」的内容に関わるユーザーからの質問に対する回答の生成に対する製品設計(Product design)の差異-なぜChatGPT3.5は「明治大学経営学部の学科構成はどのようなものですか?」などといった事実に関する問いに対して、まったく誤った回答をするのか?
  8. 「事実」的内容に関わるユーザーからの質問に対する回答に関して、ChatGPT無料版(ChatGPT3.5)はまったく誤った回答をすることがよくある。こうしたことが原因となって、「生成系AIシステムの回答は信頼できない。」という一般的印象が生み出されている。
     しかしながらChatGPT無料版(ChatGPT3.5)の回答の信頼性の低さに関して、「現行の生成系AIシステム技術それ自体の構造的限界を示している」という理解はあまり適切ではない。欠陥に起因するというよりも、に対する一般的な懐疑の
    信頼度の高低に関するテキスト生成系AIの判定法
    生成系AIシステムも、基本的には input – processing unit – output構造である。それゆえ、processing unitによる処理プロセスにおいて、「信頼度が高いデータ」群を明示的に指定することによって、より信頼度の高い回答を出力するように設計することはできる。例えばPerplexity AIがChatGPTよりも信頼度の高い回答を生成する確率が高いのはそうした設計になっているためと思われる。なおChatGPT4もオプションのBrowse with Bingオプションを選択することでより信頼度の高い回答をするような設計になっている。

    「なぜChatGPT3.5は下記WEBページのOpenAI LP(2023)「明治大学経営学部の学科構成はどのようなものですか?」などといった事実に関する問いに誤った回答をするのか?」といった趣旨の問題に関しては下記のPerplexity AIによる2023/6/8回答ChatGPT4.0による2023/6/8回答が参考になる。
     ただしChatGPT4.0による2023/6/8回答に挙げられている要因だけでは、「明治大学経営学部の学科構成」に関して間違った回答をするのかを説明はできない。
    「明治大学経営学部の学科構成」に関して間違った回答をする理由に関する説明の正確性・信頼度に関しても、Perplexity AIの方がChatGPT4よりも高い。

     なお本問題については佐野正博(2023)もご参照ください。

     

旧バージョン: https://www.sanosemi.com/sano_lecture/archives/6002

カテゴリー: AIに関する技術論的考察 | コメントする

生成AIを使った資料の探し方-アップルの第三世代Air Podsを例として

時事的問題に関して関連資料を探す場合には、Perplexity AI(https://www.perplexity.ai/)が便利である。OpenAIのChatGPTはそのProduct designの制約(Productの機能制約)により、こうした作業には向いていない。

下記共有リンクの内容に示されているように、OpenAIのChatGPT有料版はその場でネット検索を瞬間的にして回答を生成しているため、「内容が薄い回答」、「あまり適切ではない回答」となっています。

Perplexity AI(https://www.perplexity.ai/)有料版も、OpenAIのChatGPT有料版も、どちらも大規模言語モデル(LLM)はChatGPT4.0で同じなのですが、「事後的学習」の量と質の違いにより、前者の方が後者よりも優れた回答を返す可能性が高くなっている。

なお最近は、Googleの生成AI「Bard」https://bard.google.com/chatの性能が以前よりかなり向上している。例えば、時事的問題に関しては、OpenAIのChatGPT有料版よりも優れた回答を返すようになっている。

 
上記のことは、下記プロンプト文に対する各生成AIの回答結果に示されている。
 
日本語のプロンプト文 「アップルの第三世代Air Podsに関して、競合他社製品にないどのような独自機能を持っているかを教えてください。」

英語のプロンプト文 「What unique features do Apple’s third-generation Air Pods have that competing products don’t?」

 
上記のプロンプト文に対する検索結果は下記の通りです。なお下記の回答の内容に示されているように、日本語文で質問するよりも、英語文で質問した方がより適切な回答となる場合が多いかと思います。
 
 
日本語のプロンプト文に対する回答
 
英語のプロンプト文に対する回答
 

旧バージョン:https://sanosemi.info/archives/5282

カテゴリー: 生成AIの利用法, 資料検索 | コメントする