そのChatGPT利用、事務所は把握していますか?土地家屋調査士事務所に潜む「野良AI」のリスクと対策

そのChatGPT利用、事務所は把握していますか?土地家屋調査士事務所に潜む「野良AI」のリスクと対策

土地家屋調査士事務所でも、ChatGPTをはじめとする生成AIの業務利用が広がりつつあります。

土地所有者や隣地所有者、関係者への案内文・メールの作成、複雑な相続関係の説明文、役所への照会文の推敲、現場メモの整理、音声メモの文字起こしなど、AIは土地家屋調査士事務所の周辺業務を効率化する有力な道具になり得ます。

しかし、その便利さの裏で、代表者や管理者が見落としがちな情報管理上のリスクがあります。

それが、「野良AI」です。

野良AIとは、事務所が許可・管理していない状態で、従業員や補助者が個人判断で業務にAIを使っている状態を指します。
海外では Shadow AI と呼ばれ、企業の情報漏えいやコンプライアンス違反の原因として問題視されています。

土地家屋調査士が扱う情報は、単なる依頼者情報にとどまりません。

隣接地所有者の氏名・住所、境界に関する当事者間の経緯、登記記録、測量成果、分筆案、現場写真、立会い時の発言内容など、権利関係や近隣関係に深く関わる情報が含まれます。

たとえ従業員や補助者が「早く仕事を終わらせたい」「分かりやすい文書を作りたい」という善意でAIを使っていたとしても、個人アカウントのAI(ChatGPT Plus)や無料AIサービス(ChatGPT Free等)にこれらの情報を入力していれば、事務所は気づかないうちに説明責任を果たしにくい情報管理リスクを抱えることになります。

本記事では、土地家屋調査士事務所が注意すべき野良AIのリスク、現場で起こりやすい具体例、最低限整えるべきAI利用ルール、そして安全なAI活用環境を作るための考え方について解説します。


Table of Contents

野良AI(Shadow AI)とは何か

シャドーAI、野良AI

野良AIとは、事務所が管理していないAI利用のこと

野良AIとは、一言でいえば 「事務所が把握・管理・記録していないAI利用」 のことで、Shadow AI(シャドーAI)とも言われます。

IBMは、Shadow AIについて「シャドーAIとは、情報技術(IT)部門の正式な承認や監督なしに、従業員やエンドユーザーがAIツールやアプリケーションを使用することです。」と説明しています。

出典:IBM「シャドー AI とは

土地家屋調査士事務所でいえば、次のような状態が野良AIにあたります。

  • 補助者が個人のChatGPTアカウントに業務情報を入力している
  • 無料のAI校正ツールに依頼者向け文書を貼り付けている
  • 事務所が把握していないAIサービスで業務文書を要約している

ここで重要なのは、従業員本人に悪意があるとは限らないことです。

むしろ多くの場合、本人は「仕事を早く終わらせたい」「ミスを減らしたい」「分かりやすい文章を作りたい」という前向きな理由でAIを使っています。

しかし、事務所がその利用を把握していなければ、どのAIサービスに、どの業務情報を、どのような形で入力したのかを確認できません。

この 「便利だが、事務所の管理外で使われている状態」 こそが、野良AIの本質です。


土地家屋調査士事務所で起きやすい野良AIの具体例

土地家屋調査士事務所では、次のような場面で野良AIが発生しやすくなります。

境界立会いの案内文をAIで作るケース

たとえば、補助者が境界立会いの案内文を作るために、対象地の地番、隣接所有者の氏名、住所、これまでの経緯を個人のChatGPTに入力したとします。

本人としては、単に分かりやすい案内文を作りたいだけです。

しかし、事務所が許可していないAIサービスに、対象地や隣接所有者に関する情報を入力している場合、それは事務所の管理外で業務情報が外部サービスに送信されている状態です。

境界トラブルの経緯をAIに整理させるケース

境界に関する相談では、依頼者や隣接所有者の発言、過去の経緯、親族関係、近隣関係の悪化など、極めてデリケートな情報が含まれることがあります。

これらをAIに入力して、

「この内容を時系列で整理してください」
「相手方に送る文書にしてください」

と依頼すれば、文章はきれいに整うかもしれません。

しかし、入力された内容が事務所の管理外に出ているという点では、情報管理上の問題が残ります。

現場写真や測量図を画像AIにアップロードするケース

最近は、画像を読み取るAIも進化しています。

地積測量図、現場写真、境界標の写真、建物写真などをAIにアップロードすれば、説明文の作成や文字起こしに役立つ場合があります。

しかし、画像の中に次のような情報が含まれていることもあります。

  • 表札
  • 車両ナンバー
  • 住宅の外観
  • 隣地の状況
  • 地番や所有者名の記載
  • 測量成果
  • 未確定の分筆案

「テキストを入力していないから安全」とは限りません。

画像の中に個人情報や業務上の秘密が含まれていれば、画像をAIにアップロードする行為自体が情報管理上のリスクになります。

音声文字起こしAIを使うケース

現場での打ち合わせや、隣接所有者とのやり取りを録音し、AI文字起こしサービスに読み込ませるケースも考えられます。

文字起こしは非常に便利です。

しかし、音声の中には、氏名、住所、所有関係、境界に関する不満、親族間の事情、近隣トラブルに関する発言などが含まれることがあります。

これらを事務所の確認なく外部の文字起こしAIにアップロードしている場合、野良AIの典型例になります。


なぜ土地家屋調査士事務所では野良AIが危険なのか

扱う情報が最初から機微である

一般企業でも、野良AIによる情報漏えいリスクは問題になります。

しかし、土地家屋調査士事務所の場合、そのリスクはより重くなります。
なぜなら、日常業務で扱う情報が、最初から権利関係や個人情報に深く関わるものだからです。

たとえば、土地家屋調査士事務所では次のような情報を扱います。

情報の種類具体例問題になり得る理由
個人情報氏名、住所、連絡先、所有者情報個人情報保護法上の問題
業務上の秘密境界紛争の経緯、相談内容、当事者の事情土地家屋調査士法上の守秘義務との関係
不動産情報地番、地目、地積、登記情報、測量成果権利関係や取引に関わる情報
未確定情報分筆案、申請前資料、未提出図面誤利用・誤送信時のトラブル
現場情報現場写真、隣地状況、聞き取り内容関係者のプライバシーに関わる可能性

これらの情報が、事務所の許可なく外部AIサービスに入力される場合、単なる業務効率化では済まなくなります。

「画面上でAIに聞いただけ」では済まない

従業員や補助者の感覚としては、AIに情報を入力する行為は「検索」や「相談」に近いかもしれません。

しかし、生成AIサービスに情報を入力するということは、技術的には外部サービスに情報を送信しているということです。

個人情報保護委員会は、生成AIサービスに個人データを含むプロンプトを入力する場合、当該サービス提供者に対して個人データを提供したこととなる可能性があると注意喚起しています。

(1) 個人情報取扱事業者における注意点
① 個人情報取扱事業者が生成 AI サービスに個人情報を含むプロンプトを入力する場合には、特定された当該個人情報の利用目的を達成するために必要な範囲内であることを十分に確認すること。
個人情報取扱事業者が、あらかじめ本人の同意を得ることなく生成 AI サービスに個人データを含むプロンプトを入力し、当該個人データが当該プロンプトに対する応答結果の出力以外の目的で取り扱われる場合、当該個人情報取扱事業者は個人情報保護法の規定に違反することとなる可能性がある。その
ため、このようなプロンプトの入力を行う場合には、当該生成 AI サービスを提供する事業者が、当該個人データを機械学習に利用しないこと等を十分に確認すること。

出典:個人情報保護委員会「生成AIサービスの利用に関する注意喚起等について

つまり、従業員が「AIに聞いただけ」のつもりでも、事務所としては、

  • どのサービスに入力したのか
  • 入力内容は保存されるのか
  • 学習や品質改善に使われるのか
  • 管理者がログを確認できるのか
  • 退職後にデータが残らないか

を確認する必要があります。
「便利だから使った」だけでは、依頼者や関係者に対する説明責任を果たせない場面が出てくる可能性があります。


野良AIが引き起こす4つのリスク

野良AIが引き起こす4つのリスクは次の通りです。

  • リスク1:守秘義務との関係で問題になる可能性
  • リスク2:個人情報保護法上のリスク
  • リスク3:ハルシネーションによる業務過誤
  • リスク4:事後対応ができないブラックボックス化

リスク1:守秘義務との関係で問題になる可能性

土地家屋調査士には、土地家屋調査士法上の守秘義務があります。

土地家屋調査士法第24条の二は、調査士が業務上取り扱ったことについて知り得た秘密を、正当な事由なく他に漏らしてはならないと定めています。

土地家屋調査士法

(秘密保持の義務)
第二十四条の二 調査士又は調査士であつた者は、正当な事由がある場合でなければ、業務上取り扱つた事件について知ることのできた秘密を他に漏らしてはならない。

出典:E-gov法令検索 土地家屋調査士法

この守秘義務は、土地家屋調査士でなくなった後にも及びます。

したがって、事務所が把握しないまま、外部AIサービスに業務上知り得た情報を入力する行為は、入力内容やサービスの利用条件によっては、守秘義務との関係で重大な問題を生じる可能性があります。

特に注意が必要なのは、次のような情報です。

  • 境界紛争の経緯
  • 隣接所有者とのやり取り
  • 依頼者の個人的事情
  • 親族間の対立
  • 未公開の測量成果
  • 分筆や登記に関する申請前情報

これらは、単なる作業情報ではなく、業務上知り得た秘密に該当し得る情報です。
AIに入力する前に、そもそも外部サービスに送信してよい情報なのかを判断する必要があります。

リスク2:個人情報保護法上のリスク

土地家屋調査士事務所では、依頼者だけでなく、隣接地所有者などの個人情報も扱います。

登記事項証明書など、公開情報から取得した情報であっても、氏名や住所など特定の個人を識別できる情報は、個人情報に該当し、目的外の利用は禁止されています。

業務利用(土地分筆前提の境界確定測量のための調査)で取得した登記情報を生成AIに入力することは第三者提供に該当する可能性があります。(法人向けのChatGPT Businessなどは『委託』として処理されます)

(利用目的の特定)Q2-4

登記簿等を閲覧して個人情報を取得する場合も利用目的の特定が必要ですか。A2-4

登記簿等により公開されているものでも個人情報であることに変わりはなく、それを取得する場合には利用目的の特定が必要です。

参照:個人情報保護委員会FAQ索引「登記簿等を閲覧して個人情報を取得する場合も利用目的の特定が必要ですか

そのため、次のような情報をAIに入力する場合は注意が必要です。

  • 依頼者の氏名
  • 隣接所有者の氏名
  • 住所
  • 電話番号
  • メールアドレス
  • 地番と所有者名の組み合わせ
  • 相続人の関係
  • 相談内容
  • 紛争やトラブルの経緯

特に、無料AIサービスや個人アカウントで利用するAIの場合、入力内容の保存、解析、学習利用、品質改善利用などの条件を確認しないまま使ってしまうことがあります。

利用するAIサービスの規約や設定によっては、入力内容がサービス提供者側で保存・解析・品質改善等に利用される可能性があります。
少なくとも、事務所の管理外の外部サービスに個人情報を送信しているという点は、情報管理上の大きなリスクです。

生成AIのプランと個人情報の取り扱いについては、こちらの記事をご覧ください。

リスク3:ハルシネーションによる業務過誤

AIは非常に自然な文章を作成できます。

しかし、AIの出力は常に正しいとは限りません。

存在しない法令、誤った実務運用、架空の先例、現実とは異なる手続きの説明を、もっともらしく出力することがあります。
これを ハルシネーション といいます。

土地家屋調査士業務では、次のような形で問題になる可能性があります。

  • 不動産登記法の説明が誤っている
  • 筆界特定制度の説明が不正確である
  • 役所への照会文に不要な断定が含まれている
  • 隣接所有者への案内文がかえって紛争を悪化させる
  • 依頼者に誤った見通しを伝えてしまう
  • 実務上存在しない手続きを案内してしまう

野良AI環境では、誰が、どのAIを使い、どのような情報をもとに出力を作ったのかが分かりません。

その結果、AIが作った文章が十分に検証されないまま、依頼者説明や書類作成の下地として使われるおそれがあります。

AIの危険は、文章が雑なことではありません。

むしろ、もっともらしく整った文章で間違えること にあります。

リスク4:事後対応ができないブラックボックス化

野良AIで最も厄介なのは、問題が発覚した後です。
事務所がAI利用を管理していない場合、次のことが分かりません。

  • 誰がAIを使ったのか
  • どのAIサービスを使ったのか
  • 何の情報を入力したのか
  • 入力した情報が保存されているのか
  • 出力結果を誰が確認したのか
  • 退職者の個人アカウントに情報が残っていないか

情報漏えいや業務上のトラブルが起きたとき、実態が把握できていなければ、依頼者や関係者に対して説明することも困難になります。

これは、単なるIT管理の問題ではありません。

土地家屋調査士事務所としての信用、依頼者からの信頼、職務倫理に関わる問題です。


AI利用を全面禁止しても野良AIは防ぎにくい

では、こういった野良AIへの対処方法はどんなものでしょうか?

禁止だけでは利用が水面下に潜る

これらのリスクを知った代表者が、最初に考える対策は、

「うちの事務所ではAI利用を禁止する」

というものかもしれません。
しかし、現場の実態を把握しないまま全面禁止だけを打ち出すと、かえってAI利用が水面下に潜るおそれがあります。

AIは、すでに多くの人にとって便利な文房具のような存在になっています。
文章作成、要約、言い換え、メール文の作成、チェックリスト作成など、一度使うと業務効率の向上を実感しやすい道具です。

そのため、事務所が単に「AIは禁止」と通達しても、現場では次のようなことが起こり得ます。

  • 個人のスマートフォンでこっそり使う
  • 無料AIに業務文書を貼り付ける
  • AIを使ったことを申告しない
  • 出力文を自分で書いた文章として提出する
  • 事務所側が実態を把握できなくなる

これでは、野良AIを防いだことにはなりません。
むしろ、より見えにくく、管理しにくい状態になってしまうかもしれません。

必要なのは「使わせないこと」ではなく「管理できる形で使わせること」

野良AIは、従業員のモラルだけの問題ではありません。

事務所が、

  • 何を入力してはいけないのか
  • どのAIなら使ってよいのか
  • AIで作った文書をどう確認するのか
  • 使ったことを誰に申告するのか
  • ログやアカウントをどう管理するのか

を示していないために、現場が自己判断で使っている状態です。
したがって、必要なのは単純な禁止ではなく、安全に使うためのルール設計 です。

AIを止めるのではなく、事務所が管理できる形で使えるようにする。
これが、野良AI対策の基本的な考え方です。


まず行うべきは、否定しない利用実態の確認

従業員を責める前に、現在のAI利用状況を把握する

AI利用ルールを作る前に、まず必要なのは現状把握です。

いきなり、

「勝手にAIを使っていないか」
「業務情報を入れていないか」

と問い詰めると、従業員は自己防衛に入ります。

その結果、本当は使っているのに、

「使っていません」
「たまに触っただけです」

と答えてしまう可能性があります。これでは、野良AIはさらに見えにくくなります。

まずは、従業員の善意を前提に、次のような聞き方をするのが現実的です。

  • 業務でAIを使ったことはありますか
  • どのAIサービスを使っていますか
  • どのような作業に使っていますか
  • 個人情報や地番などを入力したことはありますか
  • 便利だと感じた作業は何ですか
  • 不安に感じたことはありますか

ここで重要なのは、最初から叱責しないことです。

野良AI対策の第一歩は、従業員を責めることではなく、事務所として実態を把握することです。

AI利用のリスク構造を説明する

利用実態を把握したら、次に行うべきは、AI利用のリスクを構造的に説明することです。

ポイントは、

「AIを使うこと自体が悪い」

と伝えるのではなく、

「個人アカウントや無料AIに業務情報を入力すると、事務所の管理外に情報が出る可能性がある」

と説明することです。

たとえば、次のように伝えるとよいでしょう。

AIを使うこと自体は悪いことではありません。むしろ、文書作成や整理には有効です。
ただし、個人アカウントや無料AIに業務情報を入力すると、その情報が外部サービスに送信されます。
入力内容によっては、依頼者情報や隣接所有者情報が事務所の管理外に出ることになるかもしれません。

これが、守秘義務や個人情報保護の観点で問題になる可能性があります。

このように説明すれば、従業員のやる気を削がずに、危険な使い方だけを修正しやすくなるでしょう。

AI生成物は申告させる

AIを業務で使う場合、もう一つ重要なのが 申告ルール です。

AIで作成した文書を上司や有資格者が確認する場合、確認する側は、それがAIで作られたものかどうかを知っている必要があります。

なぜなら、AIの誤りは人間の誤字脱字とは性質が異なるからです。
人間のミスは、入力漏れ、誤字、勘違いなどが中心です。

一方、AIのミスは、存在しない根拠をもっともらしく作る、実務上不正確な説明を自然な文章で出す、不要な断定を入れる、といった形で現れます。

そのため、AIを使った文書については、通常の確認に加えて、AI特有の誤りを疑う視点が必要です。

実務上は、次の一言を徹底させるだけでも効果があります。

これはAIで作成したベースです。

この申告があれば、確認者は、

  • 法令や実務運用に誤りがないか
  • 架空の根拠が混ざっていないか
  • 事案に合わない一般論になっていないか
  • 不要な断定がないか
  • 関係者に誤解を与える表現がないか

を意識して確認できます。
AI生成物の申告は、従業員を疑うためのルールではありません。

確認する側と作成する側の情報の非対称性をなくし、事務所として安全にAIを使うためのルールです。


土地家屋調査士事務所が整えるべき5つのAI利用ルール

野良AIを防ぐためには、抽象的な注意喚起だけでは不十分です。

「個人情報に気をつけましょう」
「AIは慎重に使いましょう」

というだけでは、現場の判断がバラバラになります。

土地家屋調査士事務所では、最低限、次の5つのルールを整えるべきです。


ルール1:入力禁止情報を具体的に列挙する

最初に必要なのは、AIに入力してはいけない情報を具体的に決めることです。

「個人情報は入力しないこと」というルールだけでは不十分です。

現場では、

「地番は個人情報ではないのでは」
「登記簿に載っている情報ならAIに入力しても問題ない」
「名前を消せば大丈夫」

という判断の揺れが起こります。
そのため、入力禁止情報は具体的に列挙する必要があります。

無料版AIを使うのであれば、次の情報は原則として入力禁止にします。

  • 氏名
  • 住所
  • 電話番号
  • メールアドレス
  • 生年月日
  • 依頼者名
  • 隣接所有者名
  • 所在地番
  • 家屋番号
  • 測量成果
  • 境界紛争の具体的経緯
  • 立会い時の発言内容
  • 親族関係
  • 相続関係
  • 現場写真
  • 表札や車両ナンバーが写った画像
  • 未公開の分筆案
  • 申請前の資料

重要なのは、「これは入力してよいのか」と現場で迷わせないことです。

入力禁止情報を具体的に示すことで、従業員や補助者も判断しやすくなります。


ルール2:利用してよいAIツールを指定する

次に、事務所として利用を認めるAIツールを指定します。

「何でも使ってよい」という状態では、野良AIは防げません。

一方で、「AIは一切禁止」とすると、水面下での利用を招くおそれがあります。

そのため、事務所として、

  • 使用してよいAI
  • 使用してはいけないAI
  • 使用する場合に必要な条件

を明確にします。

たとえば、法人向けAIサービスを検討する場合でも、単に「法人向けだから安全」と決めつけるべきではありません。

次の点を確認する必要があります。

  • 入力データが学習に利用されるか
  • 入力内容がどの程度保存されるか
  • 管理者が利用状況を確認できるか
  • アカウントを事務所側で管理できるか
  • 退職者のアカウントを停止できるか
  • ログを確認できるか
  • 外部共有設定を制御できるか
  • 契約上のデータ保護条件はどうなっているか

ChatGPT Business、ChatGPT Enterprise、Microsoft Copilot、Gemini for Google Workspaceなどを検討する場合も、各サービスの仕様や契約条件を確認したうえで、事務所の業務に合うものを選ぶ必要があります。

重要なのは、従業員が個人判断でAIを選ぶのではなく、事務所が管理できるAI環境を用意することです。


ルール3:匿名化・マスキングの手順を決める

AIを安全に使ううえで重要なのが、匿名化・マスキングです。

ただし、

「個人情報を消してから使う」

という抽象的なルールでは、現場で判断が分かれます。

そのため、具体的な置き換えルールを定めます。

たとえば、次のようにします。

元の情報AI入力時の置き換え例
山田太郎依頼者A
佐藤花子隣接所有者B
愛知県名古屋市○区○町○番対象地
○○市○○町123番4対象地の地番
3,250万円金額
長男・次男・長女相続人A・B・C
「昔から隣と揉めている」境界に関する過去の経緯あり

また、現場写真や図面についても、必要に応じて次のような処理を検討します。

  • 表札を隠す
  • 車両ナンバーを隠す
  • 氏名欄を塗りつぶす
  • 地番や住所を削除する
  • 必要な部分だけを切り出す
  • 画像AIにアップロードしてよい資料を限定する

匿名化の目的は、AIを使えなくすることではありません。

事務所の管理外に出してはいけない情報を取り除いたうえで、AIの便利さを安全に使うことです。


ルール4:AI出力は有資格者が確認する

AIの出力は、必ず人間が確認する必要があります。

特に土地家屋調査士業務では、最終的な成果物について、資格者の確認と判断が不可欠です。
AIが作成した文章をそのまま依頼者、隣接所有者、役所、法務局に提出・送信してはいけません。

確認すべきポイントは、次のとおりです。

  • 法令の説明が正しいか
  • 実務運用と合っているか
  • 事案に合った内容になっているか
  • 不要な断定をしていないか
  • 相手方を刺激する表現がないか
  • 架空の根拠や誤った制度説明がないか
  • 個人情報や地番が不必要に含まれていないか
  • 依頼者に過度な期待や誤解を与えないか

AIは文章を整えることは得意です。
しかし、専門家としての最終判断を代替するものではありません。

土地家屋調査士事務所では、AIを「判断者」ではなく「補助者」として位置づける必要があります。


ルール5:利用ログと退職者アカウントを管理する

最後に重要なのが、ログとアカウント管理です。

事務所がAI利用を許可する場合でも、利用実態を把握できなければ、管理しているとはいえません。
最低限、次の項目を管理できる体制を整えるべきです。

  • 誰がAIを使ったか
  • どのAIツールを使ったか
  • どの業務に使ったか
  • 個人情報を入力していないか
  • AI出力を誰が確認したか
  • 退職者のアカウントを停止できるか
  • 共有データが個人アカウントに残っていないか

特に退職者管理は重要です。
個人のAIアカウントや個人のクラウドに業務情報が残っている場合、事務所側で削除や確認ができません。

法人向けAI環境を導入する場合は、退職時にアカウントを停止し、権限を削除できる仕組みを整える必要があります。


野良AI危険度チェックリスト

以下のチェックリストで、現在の事務所の状態を確認してみてください。

「いいえ」が多い場合、野良AIが発生していても事務所側が把握できない状態になっている可能性があります。

チェック項目はいいいえ
従業員・補助者が業務でどのAIツールを使っているか把握している
個人アカウントや無料AIでの業務利用についてルールがある
AIに入力してはいけない情報を具体的に列挙している
地番・所有者名・現場写真などの扱いについてルールがある
AI利用時の匿名化・マスキング手順がある
AIで作成した文書を申告するルールがある
AI出力を有資格者が確認するルールがある
新人・補助者・パートにもAI利用ルールを説明している
事務所として利用を認めるAIツールを指定している
退職者のAIアカウントや共有データの管理方法がある
AI利用ルールを文書化している
AI利用ルールを定期的に見直している

このチェックリストは、従業員を疑うためのものではありません。

事務所として、AI利用を管理できる状態になっているかを確認するためのものです。


安全なAI環境を整えることが、野良AI対策の本質

野良AIを防ぐうえで、最も重要なのは 「安全なAI環境を事務所側が用意すること」 です。
従業員や補助者がAIを使う理由は、多くの場合、業務を早く正確に進めたいからです。

その需要自体を否定しても、AI利用はなくなりません。

むしろ、事務所が安全なAI環境を用意し、

「業務でAIを使うなら、この環境で使ってください」
「この情報は入力しないでください」
「AIで作った文書は申告してください」
「最終確認は有資格者が行います」

というルールを明確にする方が、現実的で安全です。
野良AI対策は、AIを排除することではありません。
管理できないAI利用を減らし、管理できるAI利用に移行することです。


なぜAI導入にはルール設計が必要なのか

AIツールを契約するだけでは、野良AI対策にはなりません。

必要なのは、ツール選定と同時に、業務ルールを設計することです。

たとえば、次のような点を整理する必要があります。

  • どの業務でAIを使うのか
  • どの業務ではAIを使わないのか
  • どの情報は入力禁止にするのか
  • 匿名化すれば使える情報は何か
  • 誰がAI出力を確認するのか
  • AIで作った文書をどう申告するのか
  • ログをどこまで管理するのか
  • 従業員にどのように研修するのか
  • 事故が起きたときにどう対応するのか

土地家屋調査士事務所の場合、AIの便利さだけで導入を進めると、かえって情報管理上の穴が生まれます。

一方で、リスクだけを恐れてAIを禁止すると、現場の効率化の機会を失い、野良AIが水面下に潜る可能性があります。

必要なのは、危険性と有用性を切り分けたうえで、事務所の実務に合うルールを作ることです。


まとめ:AIを止めるのではなく、管理できる形で使う

土地家屋調査士事務所にとって、AIは今後、文章作成、要約、照会文の整理、社内マニュアル作成、現場メモの整理など、周辺業務を支える有力な道具になっていきます。

しかし、従業員や補助者が個人アカウントや無料AIを使い、依頼者情報、隣接所有者情報、地番、境界に関する経緯、測量成果などを入力している場合、それは単なる業務効率化ではありません。

事務所の管理外で重要な情報が外部サービスに送信されている可能性があります。

野良AI対策で重要なのは、次の3点です。

  1. 現在のAI利用状況を把握すること
  2. 入力してはいけない情報を明確にすること
  3. 安全に使えるAI環境と利用ルールを整えること

AIを使うこと自体が危険なのではありません。

危険なのは、事務所が把握しないまま、従業員や補助者が個人判断でAIを使っている状態です。

これからの土地家屋調査士事務所に必要なのは、AIを止めることではなく、AIを管理できる形で使うことです。

そのためには、事務所の業務内容に合わせたAI利用ルール、入力禁止情報の整理、匿名化の手順、確認体制、アカウント管理を整備する必要があります。

AIを安全に活用できる環境を整えれば、野良AIのリスクを抑えながら、文書作成や情報整理の効率化を進めることができます。


AI活用と情報管理に不安がある土地家屋調査士さんへ

AIは、禁止すれば済むものではありません。

むしろ今後は、土地家屋調査士事務所の周辺業務を効率化するために、AIを安全に使う仕組みが必要になります。

一方で、

  • どのAIツールを使えばよいか分からない
  • 個人情報や地番をどこまで入力してよいか判断できない
  • 従業員がすでにAIを使っているかもしれない
  • AI利用ルールをどう作ればよいか分からない
  • ChatGPTの法人プランを導入すべきか迷っている
  • 所員向けにAI研修を行いたい

という事務所も多いはずです。

そのような場合は、まず現在のAI利用状況を棚卸しし、事務所として管理できる形に整えることから始めるのが現実的です。

AIの杜さいたでは、土地家屋調査士事務所をはじめとする士業事務所向けに、AI利用ルールの整理、入力禁止情報の設計、法人向けAIツールの選定、所員向け研修、実務に即したAI活用方法の導入支援を行っています。

「AIを使いたいが、情報漏えいが不安」
「従業員の野良AI利用を防ぎたい」
「安全なAI活用環境を整えたい」

このような課題がある場合は、一度、AI無料相談をご利用ください。

記事を読んで「AIの個人情報、ウチは大丈夫?」と思った先生へ

個人情報に関するAIの使い方・初期設定、
実務のプロに相談して見直しませんか?

「どこまで情報を入れて良いか悩んでいる」「設定が合っているか不安」
調査士事務所15年の実務経験を持つAIコンサルタントが、
貴事務所の状況に合わせてアドバイスいたします。

30分・オンライン
セキュリティ診断
無理な営業なし
無料相談に申し込む

※お問い合わせフォームへ移動します


参考資料

Microsoft Learn「Prevent data leak to shadow AI」
https://learn.microsoft.com/en-us/purview/deploymentmodels/depmod-data-leak-shadow-ai-intro

Microsoft Learn「シャドウ AI へのデータ リークを防ぐ」
https://learn.microsoft.com/ja-jp/purview/deploymentmodels/depmod-data-leak-shadow-ai-intro

Microsoft Learn「手順 1: AI アプリを検出する – シャドウ AI へのデータ リークを防ぐ」
https://learn.microsoft.com/ja-jp/purview/deploymentmodels/depmod-data-leak-shadow-ai-step1

個人情報保護委員会「生成AIサービスの利用に関する注意喚起等について」
https://www.ppc.go.jp/news/careful_information/230602_AI_utilize_alert

個人情報保護委員会「生成AIサービスの利用に関する注意喚起」
https://www.ppc.go.jp/files/pdf/generativeAI_notice_leaflet2023.pdf

個人情報保護委員会「生成AIサービスの利用に関する注意喚起等について」
https://www.ppc.go.jp/files/pdf/230602_kouhou_houdou.pdf

土地家屋調査士法
https://elaws.e-gov.go.jp/document?lawid=325AC1000000228

日本土地家屋調査士会連合会
https://www.chosashi.or.jp/

ABA「ABA issues first ethics guidance on a lawyer’s use of AI tools」
https://www.americanbar.org/news/abanews/aba-news-archives/2024/07/aba-issues-first-ethics-guidance-ai-tools/

ABA Formal Opinion 512
https://www.lawnext.com/wp-content/uploads/2024/07/aba-formal-opinion-512.pdf

Singapore Ministry of Law「Guide for Using Generative AI in the Legal Sector」
https://www.mlaw.gov.sg/files/Guide_for_using_Generative_AI_in_the_Legal_Sector__Published_on_6_Mar_2026_.pdf

コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

CAPTCHA