【先読み!ChatGPT】AIを怖がらないでうまく使おう

ちまたで話題のChatGPT。

「キライ」「コワイ」「よくないんじゃない?」とテキトーなことを言ってるが、さとうもそのひとり。

でも不安は「正しく知る」ことで解決できる。

使えなくても知ることは大事だ。

目次

ChatGPTを知る

この本はさとうが勝手にブログの師匠に認定している方がTwitterでススメていた。

さとう

だからさとうも読む気になったのよ

IT分野の先端技術を説明しているので、ちょっぴり言葉がむつかしいところもある。

さとう

でも理系苦手なさとうでも理解できたよ

世の中でChatGPTは便利なシステム、使い方によっては危ないシステムと思われている。

それはおおざっぱに言って、正しい。

ただ、まだまだ人間がチェックしてコントロールしないと使えないシステムである。

一方的に「盗作に使われる〜」「レポートの手抜きに使われる〜」などと否定ばかりしてもダメ、とわかった。

ChatGPTは、人間のような会話型の文章で反応してくれる勉強のよくできるシステム、という立場。

でも、弱点があったのよ。

ノウハウよりも大事なことがある

この本は

  1. ブレイクスルーを起こした対話型AI
  2. ChatGPTと会話してみよう
  3. 対話型AIはどんな技術で成り立っている?
  4. ビジネス活用の事例とポテンシャル
  5. Generative AIとの付き合い方

という5つのChapter(章)から構成されている。

うまく使えるかは、使う人間の能力次第

いわゆる「ChatGPTをどう使えばいいの?」の話はChapter 2の「ChatGPTと会話してみよう」に書かれている。

でも、マニュアルの形ではない。

このAIは会話型だから、質問をすれば答えてくれる。

しかし質問のしかたがヘタだと、答えもぼや〜んとしたものになる。あるいは専門用語だらけのわかりにくい答えになる。

自分が知りたいことや、ほしい文章について、的確に質問できなければほしい答えは返ってこない

自分がどういう人間であるかを理解したうえで説明できなければならないし、どういう答えがほしいのかを的確に質問しなければ満足できる答えは返らない。

ChatGPTはウソをつく

本を読めばわかっていくが、ChatGPTはシステム上のデータの問題で「古すぎる情報」や「直近の情報」を持ってない。

今使われているモデルは、2022年初頭にトレーニングを終了した「GPT-3.5」シリーズ。

これは2011年から2022年初頭のデータで学習している。

つまりChatGPTが学習できてないデータもあり、Googleで検索したほうが正しく新しい情報を使える、ということがある。

そうすると、困ることが起きる。

「データがないけど質問されたからそれっぽい答えを言うねー

……ってChatGPTがウソをつくんだね。

さとう

えっ、ウソをつくの?それはダメじゃん

ChatGPTは「今は」汚い言葉を使わない

そもそもChatGPTはどんな情報を学習しているのか?

それはコモン・クロールと呼ばれているデータセットを使っているらしい。

さとう

45テラバイトほどあるってさ

それに「適切ではない情報を除くフィルタリング」を行なった570ギガバイトほどを学習に使っている。

だから、汚い言葉とかスラングとかを使わないようになっているらしい。

今は。

なんで「今は」っていうか。

それはね、今後自分で学習していくデータになにが含まれるかでChatGPTが変わっていくこともあるからだ。

2016年にMicrosoftが発表した対話型AIの「Tay」は公開されたけど差別的な発言をくりかえすようになって、すぐに公開停止に追い込まれたんだそうだ。

さとう

知らなかったよ、そんなことがあったなんて

ChatGPTは「会話形式で文章を生成してくれるAI」でしかない。

自分で学習元の情報の善し悪しを判断できないし、自分で考えてものを書いているわけでもない。

だから使ったあとで人間が、ファクトチェック(検証)をやらなくてはならない。

さとう

だってウソが含まれる結果や作品をそのまま使ったら、あなたもウソつきに認定されちゃうからね

大事なのはモラル

ChatGPTはウソをついたり、差別的発言をするかもしれなかったり。

そのほかにも

  • 「自分が書いた」といってChatGPTが生成した文章を課題に使っちゃう
  • 知らないうちに他人の権利を侵害してしまう
  • 犯罪を助長するような文章が生成されてしまう
  • 自分が書いた文章なのに、判定用のAIに「これはAIが生成した文章」と判定される

などの問題が起こるだろうと考えられる。

さとう

あのさー、AIに仕事をとられたりそのうち人間を超えたりするんじゃないかって、大さわぎになったことがあるよね?

AIは人間ではなくてサポートの道具。人間にしかできないことといえば

  • 倫理観をもって道具を使う(包丁は人を刺さずに料理に使う、とか)
  • どんな方向性で作品を作るのか、価値観を決める(なにを訴えたいのか、とか)
  • 作り出したものを、責任をもって選ぶ(AIが作ったものを使っても100%の結果はついてこないかも、とか)
  • 感情をともなって物事を人に伝える、思いを届ける

などが考えられる。

大事なのは、どう使うかということにモラルを持つこと。

そのことがAIと人間を区別する。

この先、便利になるかもよ

この先、GPT-4.0とかもっと進んだ学習をこなせば、ChatGPTももっと便利で優秀になるだろうね。

ほかの分野(画像とか音楽とかスピーチとか)でもうまく活用するようになるだろうし、専門分野に特化したサポートサービスも生まれるだろう。

どんな便利な道具も、倫理観と使い方で良くも悪くもなる。

原子力もそうだし、SNSもそう。

ChatGPTも「仕事を盗られる!」と感情的に否定から入らず、どんなもんだか知ってみよう。

使うときはモラルをふまえよう。

それが自分たちの得につながるから。

さとう

うまく使えば、個人秘書を持つみたいに便利になるかも

この記事が気に入ったら
フォローしてね!

よかったらシェアしてね!
  • URLをコピーしました!

この記事を書いた人

昭和生まれ。なのでリアルな顔写真はご勘弁を。
オタクという言葉がなかったころからSFを読んでいます。
オタクのはしくれなので読んだ本を紹介します。

コメント

コメントする

目次