AIは敵か味方か?

ドイツのtekomが発行する”tcworldマガジン”3月号のトップが以下である。

和訳すると次のようになる。

AIとテクニカルコミュニケーション:敵か味方か?
AIのかつてない可能性に、多くの科学者が熱狂している。他の専門家、中でもテクニカル・ライターは、AIに仕事を奪われるのではないかと恐れている。しかし、テクニカル・コミュニケーションには貢献できることがたくさんある。

テクニカルコミュニケーターにとってAIは敵か味方かという議論が行われるようになってかなり時間がたったはずだがまだこんなタイトルをつけるのかと最初は思った。ところがそうではなかった。

perplexityという生成AIにこの記事のURLを教えて日本語で要約させてみた。次のとおりである。

この記事は、技術の安全性と信頼性を確保することが重要であり、技術の機能や動作原理を理解し、伝えることが信頼を築くために不可欠であると述べています。技術コミュニケーションがAIの開発と伝達に積極的に介入しない場合、AI開発に貴重な貢献をする機会を逃す可能性があると指摘しています。技術コミュニケーションはAIの発展と普及において重要な役割を果たしており、その役割を適切に果たすことがAI技術の発展に不可欠であることを強調しています。

”技術コミュニケーション”は”テクニカルコミュニケーション”と訳してほしかったがそこは問題ではない。この要約が良いかどうかとなると、記事の内容を自分で読んだ後では疑問を持たざるを得ない。記事の内容はテクニカルコミュニケーターがAI開発にかかわることがAIの発展に不可欠だと言っている。言っていることに問題はないのだが、この記事を書いたライターにとってはこのように要約されたでは物足りなく感じるのではないかと思う。そこで前の質問に続けて「この記事を見出しごとに要約してください。」という問いを投げかけてみた。

実際の見出しは

AI and technical communication: enemy or ally?
 The risks of using AI
 How technical communication can help
  Technical communication for AI documentation
  Technical communication for prompt optimization
  Technical communication for content development
 Further areas of engagement

であるのに、返ってきた回答に含まれていた見出しは次のようであった。

AI and technical communication: enemy or ally?
Technical communication for AI documentation
Technical communication for prompt optimization
Technical communication for content development
Further areas of engagement

AIが返してきた見出しには抜けがあり、そのレベルに一貫性がない。これは「問い」かたが悪いということなのか?そういえば最初の要約にもAIのリスクに関することが抜けている。そこで続けて「The risks of using AIの要約が抜けているのでは?」と聞いてみた。すると次のような言い訳が返ってきた。

はい、ご指摘の通り、AIの使用に伴うリスクについての要約が抜けていました。提供された情報源を総合的に見ると、AIのリスクには以下のようなものが含まれていることがわかります:
・プライバシー侵害 – AIシステムが個人情報を不適切に収集・利用する可能性
・アルゴリズムバイアス – AIシステムが偏った判断をする可能性
・雇用への影響 – AIによる自動化で人間の仕事が奪われる可能性
・法的・倫理的な課題 – AIの使用に関する法的規制の不足
・セキュリティ上の脅威 – AIシステムの悪用や攻撃に対する脆弱性
・透明性の欠如 – AIシステムの判断過程が不透明
・意図しない結果 – AIシステムの予期せぬ行動や影響
・人工一般知能(AGI)の出現 – 人間を超える知能を持つAIの出現による存在論的リスク
これらのリスクに対処するため、倫理的な配慮、厳格なテスト、適切な規制の導入などが重要であると指摘されています。AIの恩恵を最大限に活かしつつ、リスクも適切に管理していく必要があります。

なんだか優等生的な回答である。ここで、この号の「The Risk of using AI」の項の英語をすべて質問文に含めて要約させると次のような答えが返ってきた。

1.AIを使用する際のリスクについて、以下のように要約できます:
・説明責任の欠如
・AIの導入により、影響の責任が明確でなくなる可能性がある
・透明性の欠如、真偽の判断困難、倫理的責任の所在不明など、重要な問題が生じる
・正確な情報伝達や、経験や文脈のない利用者の判断力向上が課題となる
2.政府や規制当局の対応
・EUのAI法案は、リスク防止アプローチを重視し、開発者や企業にリスク開示を求めている
・英国のAI行動計画は、AIの設計の明確な伝達を重視し、イノベーションを促進する
・米国大統領令は、データプライバシー、市民権、消費者保護、イノベーション、責任の確保に焦点を当てている
3.安全性と信頼性の確保
・AIの能力と動作原理の理解を促進することが重要
・技術コミュニケーションがAIの開発と伝達に積極的に関与しないと、貴重な貢献の機会を逸する
・技術コミュニケーションはAIの開発サイクルにより深く関与する必要がある

まったくと言っていいほど内容が違う。AIが嘘つきといわれるのはこれが所以ではなかろうか。後の回答のほうが正確である。私の質問の仕方が悪かったのに違いない。連続した質問なので「The risks of using AIの要約が抜けているのでは?」とだけ聞いたのが厳密さに欠けるのであろう。AIが情報をどこから集めてどのようにまとめたかは知りようがないが、ネット上にあるAIのリスクに関する情報をかき集めてきたには違いないと思われる。英文を全部質問内に含めれば正しく回答してくれたのである。

この記事には”Technical communication for prompt optimization”という見出しがあってそこには次のように書かれている。

プロンプトを生成する際には、機械がそれを理解する方法を考慮することが重要です。プロンプトのコンテキストが完全であればあるほど良いです。したがって、目的、必要性、トピック、著者、および受取人などの修辞的要素を含める必要があります。ここで、技術ライターは、プロンプトエンジニアリングのための情報配信を調整し、さまざまな条件やケースに対するプロンプトの公式を開発するために修辞的状況の知識を活用することができます。

コンテキストが完全であればあるほど… ハイ、勉強になりました!