今のAIはブラックボックスやからヤヴァイって風潮あるやん…?

サムネイル
1 : 2024/04/19(金) 10:29:57.87 ID:O5dTjCn70
ディープニューラルネットが複雑なパラメータからなる高度な合成関数やからやけど、
普通にそれすらもニューラルネットでブラックボックスを解明出来るんちゃうか?
2 : 2024/04/19(金) 10:30:05.12 ID:O5dTjCn70
例えば「ニューラルネット」をインプットとして、アウトプットを「インプットのニューラルネットをごく少数の数学の関数からなるアルゴリズムで近似したもの」として、
インプットとアウトプットが近くなるように学習すれば
3 : 2024/04/19(金) 10:32:18.22 ID:O5dTjCn70
例えば「手書き数字を分類するニューラルネット」をインプットとして、アウトプットが「数字の角度とか面積などの幾何学量ででどの数字か当てるアルゴリズム」
みたいな感じにすればブラックボックス問題解決できるやん
4 : 2024/04/19(金) 10:32:56.55 ID:O5dTjCn70
つまりニューラルネットすらもニューラルネットで解明すればええやん
人間が人間のことを研究するみたいなもんで
5 : 2024/04/19(金) 10:36:12.69 ID:RINdY0Gt0
何言ってるのか分からん
天才か?
6 : 2024/04/19(金) 10:39:07.12 ID:O5dTjCn70
>>5
今のAIってのは基本的な構造は全部「すごい複雑な合成関数」で近似する仕組みなんや

例えば「手書きの数字画像からなんの数かを当てるAI」
みたいなのがあるとするやろ?

9 : 2024/04/19(金) 10:43:33.19 ID:RINdY0Gt0
>>6
さっぱり分からん
やっぱり天才だな
11 : 2024/04/19(金) 10:44:23.94 ID:O5dTjCn70
>>9
いや分かってほしい
とりあえず「関数」は分かるか?
13 : 2024/04/19(金) 10:49:54.79 ID:RINdY0Gt0
>>11
なんやそれ?
18 : 2024/04/19(金) 10:55:06.22 ID:O5dTjCn70
>>13
例えば
「与えられた数字に1を足す」
ってのも関数や

2 → 3、
5 → 6
みたいな対応のことを関数って言うんや

ここまでええか?

7 : 2024/04/19(金) 10:41:05.84 ID:swpHJQqfH
この場合、このAIは
インプットが「手書きの数字画像」で
アウトプットが「数(正確にはその数である確率)」という「関数」なんや

ここまでええか?

8 : 2024/04/19(金) 10:43:12.80 ID:erQi4+RS0
ニューラルネット言いたいだけやろ
10 : 2024/04/19(金) 10:43:42.52 ID:O5dTjCn70
>>8
ちゃんと文章読んでその感想ならマジモンのアホやぞ
12 : 2024/04/19(金) 10:47:18.11 ID:erQi4+RS0
>>10
アホやないで
AIがプロンプトに応じて学習モデルから吐き出すロジックはブラックボックスやけどそれを同じようにAI使えば計算できるんちゃうか?って話やろ?
15 : 2024/04/19(金) 10:52:08.56 ID:O5dTjCn70
>>12
「同じように」ってのが雑やな

ザックリいうなら
「AI」をインプット、「そのAIの解釈」をアウトプットとしたニューラルを学習すればええやん
ってこと

19 : 2024/04/19(金) 10:55:44.61 ID:erQi4+RS0
>>15
やっぱニューラル言いたいだけやんな
AIの出力をそのままインプットしたところで同じような学習モデルができるだけやろ
しかも元のモデルから出力される全てのパターンを学習するなんて現実的なじゃないからその理屈なら完全に解析することは無理やろ
20 : 2024/04/19(金) 10:57:23.18 ID:O5dTjCn70
>>19
マジで何も理解してないやん
「AIの出力」がインプットじゃないで??
「AI(を構成するニューラルネット)」そのものが丸々インプットなんやで??
21 : 2024/04/19(金) 10:58:53.13 ID:O5dTjCn70
>>19
アウトプットを>>17みたいに制限すれば
同じようなモデルが出ることはないやん
14 : 2024/04/19(金) 10:50:12.40 ID:RINdY0Gt0
天才の考えることはわからんな
16 : 2024/04/19(金) 10:52:09.53 ID:JMCagG980
なんJ民に関数などというプログラミングの基礎を学ばせるのは至難の業やぞイッチ…
17 : 2024/04/19(金) 10:53:26.93 ID:O5dTjCn70
「AIの解釈」とは
「自然言語とごく少数の数学関数で表現されたアルゴリズム」のことや

これが元のニューラルネットと近くなるように学習しまくれば教師データすらいらん

23 : 2024/04/19(金) 11:03:55.31 ID:erQi4+RS0
ガチで意味わからん
そうやって構築したニューラルネット()も人間から見たらブラックボックスやん
しかも元のものと近似した出力なんてどんな数をどうやって用意するん?
25 : 2024/04/19(金) 11:06:59.67 ID:O5dTjCn70
>>23
「AI」を入力として、「そのAIの解釈」を出力とするニューラルネットがブラックボックスでもなーんも問題無いやん
元々の目的はインプットのAIのブラックボックス問題を解消するためなんやから
27 : 2024/04/19(金) 11:09:38.34 ID:erQi4+RS0
>>25
で、どうやって近似した出力を用意して集めて学習させるん?
29 : 2024/04/19(金) 11:10:13.46 ID:O5dTjCn70
>>27
>>26
26 : 2024/04/19(金) 11:09:15.43 ID:O5dTjCn70
>>23
LLMでランダムに「自然言語+少数の数学関数からなるアルゴリズム」を生成すればええだけや

あとは入力の「AI」と出力の「解釈化されたAI」が(例えばクロスエントロピーとかで)近くなるように学習すればいいだけや

30 : 2024/04/19(金) 11:11:47.32 ID:erQi4+RS0
>>26
くっそ小規模ちゃう?
しかもランダムならやってること大して変わらんし
あとAIをベースに学習モデルを作ると世代毎にどんどん破綻していくんやで
24 : 2024/04/19(金) 11:04:54.64 ID:RINdY0Gt0
やっぱり天才か…
28 : 2024/04/19(金) 11:09:53.56 ID:O5dTjCn70
アホなこと言ってもすぐ分かるで
31 : 2024/04/19(金) 11:14:13.14 ID:erQi4+RS0
しかも解析、比較するためのニューラルネットの構築方法がLLMとか学習元が既にブラックボックスじゃねえか

コメント

タイトルとURLをコピーしました