[とくダネ!ナオキ 第105話]AIは自分好みにできる
先日受け取ったアマゾンからのお薦めメールです。
私はアマゾンでスパイファミリーを購入しました。アーニャのファンでもあります。でも「たしざん・ひきざん(一年生)」はいくらなんでも私向きではありません。多分AIが絡んでいます。ユーザーの年齢を考慮するようには設定されていないのかもしれません。
さて、今日は、AIの回答は自分好みにすることができる(かもしれない)というお話です。AIの回答をそのまま載せているので読みにくいかもしれませんがご容赦ください。
同じプロンプトで、5か月ほど間をあけて、ChatGPTに聞いた結果を紹介します。プロンプトは次のとおりです。
あなたが特定の製品の機能の使い方を説明するように要求されたときに、参照する情報を選択するためのルールはどのようなものですか?
これに対する回答は次のようなものでした。
2025年9月3日(実行)
いい質問です 👍
私が 特定の製品の機能の使い方 を説明するように求められたとき、参照する情報を選ぶルールにはいくつかの段階があります。まとめると以下のようになります:
- 優先度の高い情報源の順序
- ユーザーが提供した資料や画像
- あなたがマニュアルの抜粋や画像を提示している場合、それを第一の参照情報とします。
- 「この機種のマニュアルを見て」といった指定があれば、必ずそこを優先します。
- 私の学習済み知識(2024年6月時点までの情報)
- 一般的な製品の機能や操作の標準的な方法を参照します。
- 例えば「電子レンジの解凍機能」「プリンターの両面コピー」といった基本操作は、メーカーごとの違いを補いながら説明します。
- 外部からの最新情報の検索(web ツール)
- 製品の型番や機能が特定されていて、私の知識に含まれない場合は検索を行います。
- 特に「新しい機種」「最近のソフトウェアのUI」「法律や規格変更が関わる説明」の場合は、検索して公式情報を確認します。
- 情報の選択基準
- 信頼性
- メーカー公式サイトやマニュアルが最優先。
- フォーラムやブログの情報は補助的に使い、確実性が低い場合はその旨を伝えます。
- 適用性
- 製品の型番・モデル・バージョンに合致しているかを確認。
- 例えば「Canon 複合機」であっても、モデルによって手順が異なるので注意します。
- ユーザーの理解しやすさ 専門用語だけでなく、状況に応じて図解的な言葉や例を使います。
危険が伴う機能(ガス機器、電動工具など)は必ず「注意点」「安全確認手順」を強調します。
- 情報不足のときの対応
- 製品名や型番があいまいな場合 → 「どの機種をお使いですか?」と追加情報を尋ねる
- 手順が複数考えられる場合 → 「代表的な操作方法」として一般的手順を提示し、バリエーションがあることを補足する
要するに、
👉 ユーザー提供資料 > 公式情報(検索含む) > 学習済み知識 > 一般的推定 の順で参照し、
👉 信頼性・適用性・安全性を基準にして説明を組み立てます。
誰もが納得するような模範的回答です。
ところが、直近の回答は次のようなものでした。
2026年2月2日(実行)
技術文書・使用情報(information for use)を作成する立場で特定の製品機能の使い方を説明する際に、どの情報を参照・採用するかについては、一般に次のようなルール(判断基準)に基づいて選択します。ISO/IEC系の考え方に沿った整理です。
- 正式性・正統性(authoritativeness)
最優先で参照すべき情報源
- 製品の公式仕様書(requirements, specifications)
- 設計資料・設計意図(design intent)
- 承認済みのUI仕様、動作仕様
- 法規・規格要求事項(安全、表示義務など)
👉 「実際にそう動く」よりも
👉 「そうあるべきとして承認されているか」を重視します。
- 対象読者への適合性(target audience suitability)
情報は誰が使うかによって取捨選択します。
- 初心者向け: → 概念説明、前提条件、失敗しやすい点を重視
- 熟練者向け: → 操作手順、パラメータ、例外条件を重視
👉 同じ機能でも、参照する情報の粒度・視点を変えるのがルールです。
- 意図された使用(intended use)との整合
参照する情報は、必ず
- 意図された使用(intended use)
- 想定された使用環境・条件
と一致していなければなりません。
- 非公式な使い方
- 裏技的な操作
- 想定外の組み合わせ
は、原則として参照しません(必要な場合は注意喚起として扱う)。
- 安全性・リスクへの影響(risk relevance)
次のような情報は優先的に参照・反映します。
- 誤使用につながる可能性がある点
- 危険状態を引き起こす操作
- 安全機能の制限条件
👉 リスク管理文書や安全分析(ISO 12100等)があれば、
👉 それと矛盾しない情報のみを使います。
- 最新性・有効性(currency & validity)
参照情報は必ず:
- 最新のバージョンである
- 対象製品・対象モデルに適用可能である
ことを確認します。
- ❌ 旧機種の仕様
- ❌ 開発中の挙動
- ❌ 非公式なFAQやフォーラム情報
は、原則として参考情報止まりです。
- 検証可能性(verifiability)
「書ける情報」ではなく「確認できる情報」を選びます。
- 実機・シミュレーターで再現可能
- テスト済みである
- 他の公式資料と矛盾しない
👉 曖昧な伝聞や個人の経験則は排除します。
- 最小主義の原則(principle of minimalism)
ISO/IEC 26514 や 82079-1 でも重視される考え方です。
- その機能を正しく、安全に使うために必要な情報か
- なくても達成できる情報ではないか
を基準に、参照する情報自体を取捨選択します。
まとめ(ルールを一文で)
製品機能の使い方を説明する際に参照する情報は、
公式で、承認され、対象読者と意図された使用に適合し、安全性と整合し、最新かつ検証可能で、必要最小限であるものに限定する。
明らかに私に寄せた回答です。次のような私がよく使う用語や表現がちりばめられています。
ISO/IEC系の考え方に沿った
法規・規格要求事項(安全、表示義務など)
対象読者
概念説明
意図された使用
想定された使用環境・条件
安全性・リスクへの影響
ISO/IEC 26514 や 82079-1
実はこの期間に私がChatGPTに対して発したプロンプトに原因があると思われます。例えば次のようなものです。
technical writerという用語を定義しているISOやIECの規格はありますか?
日本国内の規格も上げてください。
これに対する回答の情報源としては日本規格協会やテクニカルコミュニケーター協会などの公式なサイトに加えてなんと「とくダネ!ナオキ」が入っていたのです。AIのサーチ力や恐るべし。
この期間に使った同じ方向性を持つプロンプトの数は100を超えると思います。ChatGPTは私が法令・規格に興味があると判断し、上記のような用語や表現を使えば私が喜ぶことが分かってこのような回答を返したのだと思います。ユーザーに寄り添うAIですから(だから危険なのですが)。回答の中でも「情報は誰が使うかによって取捨選択します。」とはっきり言っています。
ご存じのように、AIはひとによって回答を変えます。別のAIでの話です。知人がある美術館の休館時期に関してAIが間違った回答を繰り返すと言っていたので、同じプロンプトを私が発したことがあります。すると、全く異なる書式の回答が返ってきたのです。1つのプロンプトに対して休館期間の記載が正しいものと間違ったものを、段落を変えて回答してきたのです。質問者が今までどのようにAIを使ってきたかよって回答の表現や書式まで変えてきます。内容に矛盾があるかどうかをチェックしてはいないようです。AIの安全性・公平性・正確性の確保の難しさについてはいろんなところで議論されています。読者の皆様も注意しながらAIを自分好みに変えて活用ください。