[とくダネ!ナオキ 第58話]AIは敵か味方か?
ドイツのtekomが発行する“tcworldマガジン”3月号のトップがコレです。
和訳すると次のようになります。
AIとテクニカルコミュニケーション:敵か味方か?
AIのかつてない可能性に、多くの科学者が熱狂している。他の専門家、中でもテクニカル・ライターは、AIに仕事を奪われるのではないかと恐れている。しかし、テクニカルコミュニケーションには貢献できることがたくさんある。
AIが人間の仕事を奪う、というのはここ数年何度も話題になってきたことですよね。
そうですね。テクニカルコミュニケーターにとってAIは敵か味方かという議論が行われるようになってから、かなり時間がたったはずですが、まだこんなタイトルをつけるのかと最初は思いました。
ところがそうではなかったようです。
perplexityという生成AIに、この記事のURLを入れて日本語の要約を生成してみました。
この記事は、技術の安全性と信頼性を確保することが重要であり、技術の機能や動作原理を理解し、伝えることが信頼を築くために不可欠であると述べています。
技術コミュニケーションがAIの開発と伝達に積極的に介入しない場合、AI開発に貴重な貢献をする機会を逃す可能性があると指摘しています。技術コミュニケーションはAIの発展と普及において重要な役割を果たしており、その役割を適切に果たすことがAI技術の発展に不可欠であることを強調しています。
なるほど、要約というのもAIが得意とする部分ですね。
この要約が妥当かどうかということに、記事を自分で読んだ後では疑問を持たざるを得ませんでした。
何とも微妙な要約になっていますが、どこが問題と感じたのですか?
“技術コミュニケーション”は“テクニカルコミュニケーション”と訳してほしかったですが、そこが問題ではありません。
記事の内容はテクニカルコミュニケーターがAI開発にかかわることがAIの発展に不可欠だと言っています。
言っていることに問題はないのですが、この記事を書いたライターにとっては、このように要約されたのでは物足りなく感じるのではないかと思いました。
そこで先の質問に続けて「この記事を見出しごとに要約してください。」という問いを投げかけてみました。
実際の見出しはこのようになっています。
AI and technical communication: enemy or ally?
The risks of using AI
How technical communication can help
Technical communication for AI documentation
Technical communication for prompt optimization
Technical communication for content development
Further areas of engagement
これに対し、返ってきた回答に含まれていた見出しは次のようになっています。
AI and technical communication: enemy or ally?
Technical communication for AI documentation
Technical communication for prompt optimization
Technical communication for content development
Further areas of engagement
なんか短くなっていますね(笑)
AIが返してきた見出しには抜けがあり、そのレベルにも一貫性がありません。
これは問い方が悪いということなのかと思いました。
そういえば最初の要約にもAIのリスク(The risks of using AI)に関することが抜けています。
そこで、続けて「The risks of using AIの要約が抜けているのでは?」と聞いてみました。すると次のような言い訳が返ってきました。
はい、ご指摘の通り、AIの使用に伴うリスクについての要約が抜けていました。提供された情報源を総合的に見ると、AIのリスクには以下のようなものが含まれていることがわかります:
- プライバシー侵害 – AIシステムが個人情報を不適切に収集・利用する可能性
- アルゴリズムバイアス – AIシステムが偏った判断をする可能性
- 雇用への影響 – AIによる自動化で人間の仕事が奪われる可能性
- 法的・倫理的な課題 – AIの使用に関する法的規制の不足
- セキュリティ上の脅威 – AIシステムの悪用や攻撃に対する脆弱性
- 透明性の欠如 – AIシステムの判断過程が不透明
- 意図しない結果 – AIシステムの予期せぬ行動や影響
- 人工一般知能(AGI)の出現 – 人間を超える知能を持つAIの出現による存在論的リスク
これらのリスクに対処するため、倫理的な配慮、厳格なテスト、適切な規制の導入などが重要であると指摘されています。AIの恩恵を最大限に活かしつつ、リスクも適切に管理していく必要があります。
やはり人工的な文章、という雰囲気は否めないですね。
それに、なんだか優等生的な回答に感じます。
そこで、この号の「The Risk of using AI」の項の英語をすべて質問文に含めて要約させると次のような答えが返ってきました。
- AIを使用する際のリスクについて、以下のように要約できます:
- 説明責任の欠如
- AIの導入により、影響の責任が明確でなくなる可能性がある
- 透明性の欠如、真偽の判断困難、倫理的責任の所在不明など、重要な問題が生じる
- 正確な情報伝達や、経験や文脈のない利用者の判断力向上が課題となる
- 政府や規制当局の対応
- EUのAI法案は、リスク防止アプローチを重視し、開発者や企業にリスク開示を求めている
- 英国のAI行動計画は、AIの設計の明確な伝達を重視し、イノベーションを促進する
- 米国大統領令は、データプライバシー、市民権、消費者保護、イノベーション、責任の確保に焦点を当てている
- 安全性と信頼性の確保
- AIの能力と動作原理の理解を促進することが重要
- 技術コミュニケーションがAIの開発と伝達に積極的に関与しないと、貴重な貢献の機会を逸する
- 技術コミュニケーションはAIの開発サイクルにより深く関与する必要がある
とたんにグローバルな視点も入りましたね。(笑)
まったくと言っていいほど内容が違います。
AIが嘘つきといわれるのはこれが所以ではないでしょうか。後の回答のほうが正確です。
私の質問の仕方にもよるのでしょうが、連続した質問なので「The risks of using AIの要約が抜けているのでは?」とだけ聞いたのが厳密さに欠けるのでしょう。
AIが情報をどこから集めてどのようにまとめたかは知りようがありませんが、ネット上にあるAIのリスクに関する情報をかき集めてきたに違いないと思われます。
英文を全部質問内に含めれば正しく回答してくれたのです。
質問の仕方、いわゆるプロンプトにどのように入力するかで、得られる情報がずいぶん違ってくる、という現状ですね。
そうですね。この記事には“Technical communication for prompt optimization”という見出しがあってそこには次のように書かれています。
プロンプトを生成する際には、機械がそれを理解する方法を考慮することが重要です。プロンプトのコンテキストが完全であればあるほど良いです。したがって、目的、必要性、トピック、著者、および受取人などの修辞的要素を含める必要があります。ここで、技術ライターは、プロンプトエンジニアリングのための情報配信を調整し、さまざまな条件やケースに対するプロンプトの公式を開発するために修辞的状況の知識を活用することができます。
コンテキストが完全であればあるほど… ハイ、勉強になりました! ということですね(笑)
ありがとうございました。