2026年2月27日金曜日

LLMについて 大規模言語モデル

 
AIをいじろうと色々やりながらAIにきいて感じたこと
AI は 質問すれば答えてくれるけど 我々が思ってる答えとはちょっとそれは違っていて 言葉の連なりを見てその次に続くべき言葉の連なりを膨大な 蓄積されたデータから判断して繋げる 作業してるだけ それが我々に対する答えになってる だから質問の意味を理解してるわけでもなくて ただそれに対して つなげるべき言葉を並べてるだけ
でも振り返って考えると じゃあ 我々は理解してるのか 理解ってなんだろう 結局同じように相手の言葉を聞いて 過去の経験に照らして次につなげる言葉を 自分の経験に照らして選んで繋げていってるのだとしたら AI と変わらないよね

理解することの意味って何だろう
そもそも人間の思考 って何だろう
人間と AI の違いは何だろう
生き物と機械の違いは何だろう

生物が自己保存と自己増殖 だとしたら AI に それはないのか?
AI にそれを教えるような取り組み もあるらしい それを覚えたら AI は 生物になるんだろうか?





書きかけ

0 件のコメント:

コメントを投稿