- 1 : 2024/04/19(金) 10:29:57.87 ID:O5dTjCn70
-
ディープニューラルネットが複雑なパラメータからなる高度な合成関数やからやけど、
普通にそれすらもニューラルネットでブラックボックスを解明出来るんちゃうか? - 2 : 2024/04/19(金) 10:30:05.12 ID:O5dTjCn70
-
例えば「ニューラルネット」をインプットとして、アウトプットを「インプットのニューラルネットをごく少数の数学の関数からなるアルゴリズムで近似したもの」として、
インプットとアウトプットが近くなるように学習すれば - 3 : 2024/04/19(金) 10:32:18.22 ID:O5dTjCn70
-
例えば「手書き数字を分類するニューラルネット」をインプットとして、アウトプットが「数字の角度とか面積などの幾何学量ででどの数字か当てるアルゴリズム」
みたいな感じにすればブラックボックス問題解決できるやん - 4 : 2024/04/19(金) 10:32:56.55 ID:O5dTjCn70
-
つまりニューラルネットすらもニューラルネットで解明すればええやん
人間が人間のことを研究するみたいなもんで - 5 : 2024/04/19(金) 10:36:12.69 ID:RINdY0Gt0
-
何言ってるのか分からん
天才か? - 6 : 2024/04/19(金) 10:39:07.12 ID:O5dTjCn70
-
>>5
今のAIってのは基本的な構造は全部「すごい複雑な合成関数」で近似する仕組みなんや例えば「手書きの数字画像からなんの数かを当てるAI」
みたいなのがあるとするやろ? - 9 : 2024/04/19(金) 10:43:33.19 ID:RINdY0Gt0
-
>>6
さっぱり分からん
やっぱり天才だな - 11 : 2024/04/19(金) 10:44:23.94 ID:O5dTjCn70
-
>>9
いや分かってほしい
とりあえず「関数」は分かるか? - 13 : 2024/04/19(金) 10:49:54.79 ID:RINdY0Gt0
-
>>11
なんやそれ? - 18 : 2024/04/19(金) 10:55:06.22 ID:O5dTjCn70
-
>>13
例えば
「与えられた数字に1を足す」
ってのも関数や2 → 3、
5 → 6
みたいな対応のことを関数って言うんやここまでええか?
- 7 : 2024/04/19(金) 10:41:05.84 ID:swpHJQqfH
-
この場合、このAIは
インプットが「手書きの数字画像」で
アウトプットが「数(正確にはその数である確率)」という「関数」なんやここまでええか?
- 8 : 2024/04/19(金) 10:43:12.80 ID:erQi4+RS0
-
ニューラルネット言いたいだけやろ
- 10 : 2024/04/19(金) 10:43:42.52 ID:O5dTjCn70
-
>>8
ちゃんと文章読んでその感想ならマジモンのアホやぞ - 12 : 2024/04/19(金) 10:47:18.11 ID:erQi4+RS0
-
>>10
アホやないで
AIがプロンプトに応じて学習モデルから吐き出すロジックはブラックボックスやけどそれを同じようにAI使えば計算できるんちゃうか?って話やろ? - 15 : 2024/04/19(金) 10:52:08.56 ID:O5dTjCn70
-
>>12
「同じように」ってのが雑やなザックリいうなら
「AI」をインプット、「そのAIの解釈」をアウトプットとしたニューラルを学習すればええやん
ってこと - 19 : 2024/04/19(金) 10:55:44.61 ID:erQi4+RS0
-
>>15
やっぱニューラル言いたいだけやんな
AIの出力をそのままインプットしたところで同じような学習モデルができるだけやろ
しかも元のモデルから出力される全てのパターンを学習するなんて現実的なじゃないからその理屈なら完全に解析することは無理やろ - 20 : 2024/04/19(金) 10:57:23.18 ID:O5dTjCn70
-
>>19
マジで何も理解してないやん
「AIの出力」がインプットじゃないで??
「AI(を構成するニューラルネット)」そのものが丸々インプットなんやで?? - 21 : 2024/04/19(金) 10:58:53.13 ID:O5dTjCn70
-
>>19
アウトプットを>>17みたいに制限すれば
同じようなモデルが出ることはないやん - 14 : 2024/04/19(金) 10:50:12.40 ID:RINdY0Gt0
-
天才の考えることはわからんな
- 16 : 2024/04/19(金) 10:52:09.53 ID:JMCagG980
-
なんJ民に関数などというプログラミングの基礎を学ばせるのは至難の業やぞイッチ…
- 17 : 2024/04/19(金) 10:53:26.93 ID:O5dTjCn70
-
「AIの解釈」とは
「自然言語とごく少数の数学関数で表現されたアルゴリズム」のことやこれが元のニューラルネットと近くなるように学習しまくれば教師データすらいらん
- 23 : 2024/04/19(金) 11:03:55.31 ID:erQi4+RS0
-
ガチで意味わからん
そうやって構築したニューラルネット()も人間から見たらブラックボックスやん
しかも元のものと近似した出力なんてどんな数をどうやって用意するん? - 25 : 2024/04/19(金) 11:06:59.67 ID:O5dTjCn70
-
>>23
「AI」を入力として、「そのAIの解釈」を出力とするニューラルネットがブラックボックスでもなーんも問題無いやん
元々の目的はインプットのAIのブラックボックス問題を解消するためなんやから - 27 : 2024/04/19(金) 11:09:38.34 ID:erQi4+RS0
-
>>25
で、どうやって近似した出力を用意して集めて学習させるん? - 29 : 2024/04/19(金) 11:10:13.46 ID:O5dTjCn70
-
>>27
>>26や - 26 : 2024/04/19(金) 11:09:15.43 ID:O5dTjCn70
-
>>23
LLMでランダムに「自然言語+少数の数学関数からなるアルゴリズム」を生成すればええだけやあとは入力の「AI」と出力の「解釈化されたAI」が(例えばクロスエントロピーとかで)近くなるように学習すればいいだけや
- 30 : 2024/04/19(金) 11:11:47.32 ID:erQi4+RS0
-
>>26
くっそ小規模ちゃう?
しかもランダムならやってること大して変わらんし
あとAIをベースに学習モデルを作ると世代毎にどんどん破綻していくんやで - 24 : 2024/04/19(金) 11:04:54.64 ID:RINdY0Gt0
-
やっぱり天才か…
- 28 : 2024/04/19(金) 11:09:53.56 ID:O5dTjCn70
-
アホなこと言ってもすぐ分かるで
- 31 : 2024/04/19(金) 11:14:13.14 ID:erQi4+RS0
-
しかも解析、比較するためのニューラルネットの構築方法がLLMとか学習元が既にブラックボックスじゃねえか
コメント