【統計分析】機械学習・データマイニング33
- 1 :デフォルトの名無しさん :2023/03/17(金) 01:30:49.78 ID:RQNAfc890.net
- !extend:on:vvvvvv:1000:512
!extend:on:vvvvvv:1000:512
↑すれたてる毎に1つずつ減るので、減ってたら3回に増やしてたてること。
機械学習とデータマイニングについて語れ若人
*機械学習に意識・知能は存在しません。
人の意識に触れたい方はスレ違いです。
■前スレ
【統計分析】機械学習・データマイニング29
https://mevius.5ch.net/test/read.cgi/tech/1597882603/
-EOF-
【統計分析】機械学習・データマイニング30
https://mevius.5ch.net/test/read.cgi/tech/1609459855/
【統計分析】機械学習・データマイニング31
https://mevius.5ch.net/test/read.cgi/tech/1632587566/
【統計分析】機械学習・データマイニング32
https://mevius.5ch.net/test/read.cgi/tech/1659286605/
VIPQ2_EXTDAT: default:vvvvvv:1000:512:: EXT was configured
- 397 :デフォルトの名無しさん (アウアウウー Sa0f-2ws7 [106.155.31.74]):2023/11/05(日) 20:15:53.11 ID:NuL1PsARa.net
- >>396
当たり前ではないよ
その証明はかなり難しい
- 398 :デフォルトの名無しさん (ワッチョイ ef89-sdYh [39.111.228.181]):2023/11/05(日) 20:45:36.83 ID:wlYomXuO0.net
- 確率的勾配降下法
https://www.msi.co.jp/solution/nuopt/glossary/term_da265770bed70e5f0a764f3d20c0ce3d242e6467.html
難しいね、うん
- 399 :デフォルトの名無しさん :2023/11/05(日) 23:32:13.01 ID:6QUCKtJua.net
- なんでみんな偏微分勉強しないの?
- 400 :デフォルトの名無しさん :2023/11/06(月) 15:33:19.99 ID:KM1ADC5yM.net
- 自由エネルギー原理、ちかまたオカルトみたいなことやってんのな😅
- 401 :デフォルトの名無しさん :2023/11/06(月) 17:41:34.06 ID:MSLupMxE0.net
- 機械学習における最適化理論と学習理論的側面
https://www.kurims.kyoto-u.ac.jp/coss/coss2020/suzuki-lecture1.pdf
確率的勾配降下法の収束の証明、ざっと眺めてみたら、まじめにやると禿げる
- 402 :デフォルトの名無しさん (ワッチョイ abca-pScM [254.206.42.254]):2023/11/06(月) 18:13:52.90 ID:jt8VLAcA0.net
- 確率勾配法も、transfomerやCNNもあんまり数理的に詳しくない人が思いついた気がするけど、数理的に深い方の統計機械学習はどのくらい価値があるのかイマイチわからない
- 403 :デフォルトの名無しさん :2023/11/06(月) 23:02:03.53 ID:syJ5nTa30.net
- ヒューリスティックなことって結構あるよね
局所最適解に捕まってないという証明出来ないこと多いし
- 404 :デフォルトの名無しさん :2023/11/07(火) 00:34:05.64 ID:68QHudqSa.net
- >>402
バックプロゲーションやNNの最適化を60年代にすでに完成させてた甘利先生が
ローカルミニマムに陥るのを防ぐことはできないと言って諦めた分野だからな
少なくとも数学的な理論では無理だと判断した
ローカルミニマムに陥らないようにする各種手法を小手先のテクニックと言って切り捨ててたし
確かにミニバッチ勾配降下法とかドロップアウトとかレイヤー正規化だとかの理論は
あくまでやってみたら有効だったというだけで証明は一切ない
- 405 :デフォルトの名無しさん :2023/11/07(火) 07:26:59.94 ID:QDtGzaCz0.net
- 現実の現象は決定論的でないしノイズまみれだから気にすることない
- 406 :デフォルトの名無しさん :2023/11/07(火) 11:07:08.91 ID:Se26FTX90.net
- 解空間が複雑で分からないと言ってるだけだろ、最適解の尺度(L2ノルム等)を決めた時に解を求める方法があるといってるんだよ。
万能な方法があるわけがない、甘利爺なんかを信じなるなよ
- 407 :デフォルトの名無しさん :2023/11/07(火) 12:43:17.08 ID:yYWpV8FYa.net
- 甘利先生の講義はめちゃくちゃわかりやすいんだよ
https://www.youtube.com/live/AVCjutAjtGs
論文はかなり難しいのだけど講義はすげー直感的にわかりやすい
- 408 :デフォルトの名無しさん :2023/11/07(火) 12:51:38.81 ID:LIk4YSRsa.net
- >>406
甘利先生は万能な方法を探そうとして情報幾何やらの方向にいってしまって帰ってこなかった
そして深層学習が流行り出して戻ってきた
ジェダイの帰還
- 409 :デフォルトの名無しさん :2023/11/07(火) 13:00:09.34 ID:/4zMRPCKM.net
- なにしに戻ってきたんだかwww
- 410 :デフォルトの名無しさん :2023/11/07(火) 13:00:25.56 ID:/4zMRPCKM.net
- なにしに戻ってきたんだかwww
- 411 :デフォルトの名無しさん :2023/11/07(火) 13:19:10.36 ID:Se26FTX90.net
- >>408
情報幾何は失敗だった草
- 412 :デフォルトの名無しさん :2023/11/07(火) 13:35:21.83 ID:LIk4YSRsa.net
- >>411
結果的にはね
そこには「何もなかった」
しかし純粋な数学的理論としてNNを紐解こうとしたらそっちに行くしかないのはわかる
- 413 :デフォルトの名無しさん (ワッチョイ ef89-sdYh [39.111.228.181]):2023/11/07(火) 14:38:35.93 ID:Se26FTX90.net
- 昔ある学会である人のは発表を聞いてそれは俺が前にやったと言っていた傲慢な爺
- 414 :デフォルトの名無しさん :2023/11/07(火) 15:31:42.12 ID:Nt2OyzQea.net
- 甘利先生の考えた「自然勾配」を最適化に使うと言う理論は今でこそ一般化した感じはあるが
これを70年代に生み出していたのはマジの天才としか言いようがないよ
- 415 :デフォルトの名無しさん :2023/11/07(火) 15:33:49.11 ID:/4zMRPCKM.net
- 理論的な綺麗さを求める人はそれはそれで必要だからやってくれればいいけど工学馬鹿にしたような感じがしてちょっと俺は
transformerの内部解析すらしようとしないし(笑)できないのかもしれんが
- 416 :デフォルトの名無しさん :2023/11/07(火) 15:44:03.88 ID:Nt2OyzQea.net
- 甘利先生が60年代と70年代に出した論文を超えるようなものを出した日本人はいないからね
この時期は福島先生という今のCNNとまんま同じNNを出した天才もいるし
時代が違っていれば日本人が世界していた可能性も高い
- 417 :デフォルトの名無しさん (アウアウウー Sa0f-2ws7 [106.155.29.234]):2023/11/07(火) 15:45:51.99 ID:Nt2OyzQea.net
- s/世界していた/世界を支配していた/
- 418 :デフォルトの名無しさん (ワッチョイ ef89-sdYh [39.111.228.181]):2023/11/07(火) 15:49:56.83 ID:Se26FTX90.net
- ハードウェアの発展(GPU、メモリ)があったからDLが発展した。それだけ。
- 419 :デフォルトの名無しさん (アウアウウー Sa0f-2ws7 [106.155.29.234]):2023/11/07(火) 15:52:40.77 ID:Nt2OyzQea.net
- >>418
でもその発展の時期にヒントンは現場にいた
甘利先生はいなかった
その差なんだよね
悲しいわ
- 420 :デフォルトの名無しさん (アウアウウー Sa0f-2ws7 [106.155.29.234]):2023/11/07(火) 15:59:17.64 ID:Nt2OyzQea.net
- 本当のブレイクスルーはtransformersぐらいだしね
それ以外は全部元ネタはあったわけで
それをさも新しいもののように発表してるから
甘利先生は怒ってるのだろう
- 421 :デフォルトの名無しさん :2023/11/07(火) 16:41:31.61 ID:Se26FTX90.net
- 甘利爺さんも外野w
- 422 :デフォルトの名無しさん :2023/11/07(火) 16:48:34.03 ID:/4zMRPCKM.net
- 自然勾配使われてねえじゃん
- 423 :デフォルトの名無しさん :2023/11/07(火) 22:48:16.56 ID:Se26FTX90.net
- >>416
福島先生は日本放送協会の役に立たない基礎研究をやっていたと後輩がいってた
- 424 :デフォルトの名無しさん :2023/11/07(火) 23:06:40.04 ID:En25i7Ex0.net
- >>416
↑
と言ってるバカ。
日本はソフトウェア技術が低いので当時も無理。
- 425 :デフォルトの名無しさん :2023/11/10(金) 17:43:39.65 ID:WbKAk9iL0.net
- YouTubeの3Blue1BrownJapanのニューラルネットワークの動画を見ました。
「第2層が短い線を検出し、第3層がパターンを検出し、」という説明がありました。
ニューラルネットワークの重みやバイアスが何なのかはブラックボックスとして考えないのかと思っていましたがそうではないんですね。
ニューラルネットワークを学習させ、満足のいくものを完成させたとします。
このとき、例えば、第1層がどんな処理をしているのか人間が分かるような説明はどうやって見出すのでしょうか?
- 426 :デフォルトの名無しさん :2023/11/10(金) 18:16:16.88 ID:Fu2s73WNM.net
- 重みを可視化してこんなのかな~て当たりをつけて実際にサンプルを入れて反応を見る
- 427 :デフォルトの名無しさん :2023/11/10(金) 18:31:10.70 ID:WbKAk9iL0.net
- >>426
ありがとうございました。
そういうことが分かると非常に満足度は高いと思いますが、よりよいニューラルネットワークを作るのに役立ちますか?
- 428 :デフォルトの名無しさん :2023/11/10(金) 20:35:16.62 ID:0kaXsg6n0.net
- 現状では説明できないんだよ
経済系の人とか説明が重要らしくて困っているらしいけど
ちなみに説明しようという研究分野があるけど難航している
複雑に分散されているのが説明困難な理由らしいけど
- 429 :デフォルトの名無しさん :2023/11/10(金) 20:50:38.03 ID:8Gy2rkAk0.net
- そもそも機械学習の手法の目的は予測する事で、介入効果については例えばRFでimportanceが高かろうが何も言えなく、実はテーブルデータに関しては役に立つ局面のは限定的だとおもう
- 430 :デフォルトの名無しさん :2023/11/10(金) 21:25:01.31 ID:3XhgP/+70.net
- NNにwhyと聞いてもわからない
- 431 :デフォルトの名無しさん :2023/11/11(土) 00:45:05.44 ID:mw2Z4gxk0.net
- >>425
それは、色々ある。
あと、その動画は、例えばのイメージとして、
第○層が何で、
とかっていう便宜上の説明だったかと。
- 432 :デフォルトの名無しさん :2023/11/11(土) 01:11:32.04 ID:uDCEJA+aa.net
- >>425
これ
https://www.youtube.com/watch?v=vU-JfZNBdYU
- 433 :デフォルトの名無しさん :2023/11/16(木) 17:00:07.32 ID:XiZUwLpp0.net
- Microsoftが独自設計のAI特化型チップ「Maia 100」
https://gigazine.net/news/20231116-microsoft-maia-ai-accelerator-cobalt-arm-cpu/
- 434 :デフォルトの名無しさん :2023/11/16(木) 17:58:58.50 ID:XLf88XLv0.net
- nnにllmつけて説明させた研究があったろ
あれでええやん😅
- 435 :デフォルトの名無しさん :2023/11/16(木) 18:44:27.66 ID:XiZUwLpp0.net
- Microsoft、AI最適化チップ「Azure Maia 100」
https://www.itmedia.co.jp/news/articles/2311/16/news085.html
- 436 :デフォルトの名無しさん :2023/11/18(土) 07:10:39.79 ID:gzRhEgeE0.net
- アルトマン退社?求心力落ちない?🤔
- 437 :デフォルトの名無しさん :2023/11/18(土) 09:42:49.83 ID:Fe/rTQgz0.net
- ナチスの親衛隊に居そうな名前だな
- 438 :デフォルトの名無しさん :2023/11/18(土) 10:03:41.84 ID:rdSjQnXM0.net
- >>436
カリスマ性無いし
アルトマン
- 439 :デフォルトの名無しさん (ワッチョイ 7b89-hO6y [39.111.228.181]):2023/11/18(土) 10:21:57.21 ID:PRDIldLB0.net
- アルトマンと言えば結婚相談所
- 440 :デフォルトの名無しさん :2023/11/18(土) 11:56:46.85 ID:SNWdkqqU0.net
- ブロックマンも?
- 441 :デフォルトの名無しさん (ワッチョイ e302-ekUX [27.91.124.53]):2023/11/18(土) 15:33:38.13 ID:rdSjQnXM0.net
- >>440
ブロックマンは
まともな感じ
- 442 :デフォルトの名無しさん :2023/11/18(土) 20:16:30.61 ID:SNWdkqqU0.net
- それがブロックマン他数名?もOpenAIを出ていったらしい
- 443 :デフォルトの名無しさん :2023/11/18(土) 20:28:43.34 ID:rdSjQnXM0.net
- >>442
いや、
ブロックマンは残るらしい
会長は解任
- 444 :デフォルトの名無しさん :2023/11/18(土) 20:56:56.14 ID:SNWdkqqU0.net
- >>443
情報が古い
twitter.com/gdb/status/1725667410387378559
www.theinformation.com/articles/three-senior-openai-researchers-resign-as-crisis-deepens
(deleted an unsolicited ad)
- 445 :デフォルトの名無しさん :2023/11/18(土) 21:20:46.49 ID:rdSjQnXM0.net
- >>444
というと?
- 446 :デフォルトの名無しさん :2023/11/18(土) 21:50:49.06 ID:WoIxjYhA0.net
- で結局OpenAIはMSに買収されてしまうの?
- 447 :デフォルトの名無しさん :2023/11/19(日) 12:10:17.89 ID:hd0WYi1o0.net
- グーグルにおけるアンソロピック的なナニかになるかと
- 448 :デフォルトの名無しさん :2023/11/19(日) 12:16:41.68 ID:YteVvgO90.net
- >>442
あ
Brockmanも退職するっぽいね
いろいろ、クーデターっぽいな…
- 449 :デフォルトの名無しさん :2023/11/19(日) 14:05:22.99 ID:hd0WYi1o0.net
- 取締役会てのがなんか怪しくね?
何もしとらんやん
- 450 :デフォルトの名無しさん :2023/11/19(日) 14:37:40.63 ID:6yX2EY8S0.net
- 資本主義とはそういうものやで。日本のIT企業も経営陣は何もしてないし、コードもかけない。
- 451 :デフォルトの名無しさん :2023/11/19(日) 14:50:44.00 ID:9b5NsbkP0.net
- 日本のIT企業は錬金術をやっているところ
- 452 :デフォルトの名無しさん :2023/11/19(日) 14:52:27.66 ID:/G2k3fWta.net
- 儲かると観ると役員入れ替えと買収乗っ取りが進む
そして糞企業に成り下がる
sunもoracleもgifもgoogleもyoutubeも歩んだ道
- 453 :デフォルトの名無しさん :2023/11/19(日) 16:39:16.02 ID:9b5NsbkP0.net
- それらは立派な技術で世界制覇した、揚げ足とってもみじめになるだけ
- 454 :デフォルトの名無しさん :2023/11/19(日) 21:13:19.79 ID:9b5NsbkP0.net
- アルトマン氏の復職、マイクロソフト含むオープンAI株主が要求
https://www.bloomberg.co.jp/news/articles/2023-11-19/S4CGWWT0G1KW01
- 455 :デフォルトの名無しさん :2023/11/19(日) 21:18:57.99 ID:YteVvgO90.net
- >>454
やっぱ、
大株主抜きでアルトマン解任とか、おかしいよな…
- 456 :デフォルトの名無しさん :2023/11/20(月) 17:08:59.18 ID:IGl0cS/iM.net
- アルトマンはMSに合流だってさ
- 457 :デフォルトの名無しさん :2023/11/20(月) 20:52:56.88 ID:Og7ELo6m0.net
- 【速報】サム・アルトマン氏 マイクロソフトに入社へ
https://news.yahoo.co.jp/articles/ced32c8d9c93a2f4b58d47b82dfa3389a2f3b536
- 458 :デフォルトの名無しさん :2023/11/22(水) 12:34:29.92 ID:OwYtBEmW0.net
- OpenAI理事会、アルトマン氏の復帰を協議 米報道
- 459 :デフォルトの名無しさん :2023/11/22(水) 12:37:59.34 ID:LGKIBQbA0.net
- >>458
ゴタゴタすぎw
- 460 :デフォルトの名無しさん :2023/11/22(水) 13:39:12.51 ID:OkHSaxJz0.net
- アルトマンの解雇に動いた取締役のヤツも
旗幟を変えて沈没する反アルトマンから逃げ出したな
- 461 :デフォルトの名無しさん :2023/11/22(水) 14:26:44.88 ID:FQO0e9KYM.net
- gptsと似たようなサービス出してるやつが取締役会にいるらしいな
それで追い出したんじゃないか、て話が出てる
- 462 :デフォルトの名無しさん :2023/11/22(水) 15:46:09.11 ID:1XUVLzBa0.net
- CEOとして復帰合意
https://twitter.com/OpenAI/status/1727206187077370115
(deleted an unsolicited ad)
- 463 :デフォルトの名無しさん :2023/11/22(水) 15:49:54.53 ID:LGKIBQbA0.net
- >>462
クーデターを仕組んだ奴らはどうなるのか? w
- 464 :デフォルトの名無しさん :2023/11/22(水) 16:30:54.75 ID:Nm24GmIda.net
- 従業員の9割退職するとか言い出したからな
そんな絞りカスみたいなのだけ残されても会社の体をなさないし復帰しか選択肢はなかっただろう
- 465 :デフォルトの名無しさん (ブーイモ MM03-35jY [49.239.68.226]):2023/11/22(水) 20:27:59.27 ID:mLbH07bVM.net
- 結局首謀者は誰だったのか
- 466 :デフォルトの名無しさん (アウアウウー Saa1-/c1L [106.146.15.163]):2023/11/23(木) 19:14:55.48 ID:K32BUH0oa.net
- 最近CNNについて勉強してるんだけどなんでCNNの進化EfficentNetで止まっちゃってるの?
ViTが出たからもうCNNはオワコン扱いなのかな
- 467 :デフォルトの名無しさん (ワッチョイ 2ddf-nXTY [240d:1a:632:db00:*]):2023/11/23(木) 19:26:22.56 ID:/IrV1b/40.net
- なんと、ViT言葉からキーバリューで畳み込みと似たことをやってるのかと思ったら、畳み込みしないモデルなのか
- 468 :デフォルトの名無しさん (ワントンキン MMe3-w41H [153.154.78.128]):2023/11/24(金) 09:23:51.32 ID:qvF3qj7qM.net
- 畳み込みはしないけどパターン認識の基本だから
結局畳込み的なフィルタ処理はやってる
- 469 :デフォルトの名無しさん (ワッチョイ 4379-Julz [2001:268:c104:8774:*]):2023/11/25(土) 18:55:08.72 ID:Db2RbKpf0.net
- >>450
それは会社組織・社会の機能不全の要にも思えるけどな
幕末の藩制の非効化みたいに
- 470 :デフォルトの名無しさん :2023/11/26(日) 10:28:58.39 ID:59LZT78S0.net
- 音声合成VALL-E-Xってのを使ってみたが、評判はいいのに俺が使ったら全然似てなかった。
だれか使った人いる?
- 471 :デフォルトの名無しさん (ワッチョイ ed6e-+vVj [138.64.114.77]):2023/11/30(木) 09:11:46.36 ID:Pbr0EWAn0.net
- llmがファインチューニングかけるとアホになるのは
ファインチューニングで使うコーパスや方針が非論理的だからだろ
- 472 :デフォルトの名無しさん :2023/12/02(土) 03:20:12.89 ID:XAS82Mg10.net
- LoRAは絵ではうまく言ったけどLLMでは思ったほど成果がないらしいな
- 473 :デフォルトの名無しさん :2023/12/03(日) 16:40:58.19 ID:yd0YzEc7a.net
- GPT-nとBERTの違いがイマイチあやふやなんだけど
TransformerのEncoderを使って事前学習して特徴量を生成するのがBERT
TransformerのDecoderを使ってBERTが生成した特徴量をもとに自然言語を生成するのがGPT-nって理解であってるのかな?
GPT-4も学習時はBERT使って学習してるのよね?
- 474 :デフォルトの名無しさん :2023/12/03(日) 16:59:59.16 ID:POEAPkcja.net
- >>473
全然ちゃいまんがな
GPTとBERTはtransformers使ってるだけで中身は別だぞ
- 475 :デフォルトの名無しさん :2023/12/03(日) 17:01:30.18 ID:KjJi6E/00.net
- 多分99%以上の人は自力で学習する事はないだろうから、その辺全部まとめてtransfomerでいい気がするww
- 476 :デフォルトの名無しさん :2023/12/03(日) 17:08:21.32 ID:POEAPkcja.net
- あとGPTもEncoderとDecoderでモデルを分けてるわけじゃない
同じモデルを使ってるから単に用途の的な意味でしかない
コード読んだらわかるけど
- 477 :デフォルトの名無しさん :2023/12/03(日) 17:18:35.64 ID:tIQpSdkpa.net
- >>474
GPTとBERTの立ち位置が良く分からなくて混乱してくる…
単方向か双方向かの違いなのかな?
それだと双方向に学習するBERTの方が精度高そうなのになんでGPTの方が流行ってるんだろう
論文とかコードは数式が難しくて読める気がしない…
- 478 :デフォルトの名無しさん :2023/12/03(日) 17:21:29.12 ID:6i/6hVjh0.net
- >>473
別個の言語モデル
アーキテクチャが違う
つかbingに聞けよ😅
- 479 :デフォルトの名無しさん :2023/12/03(日) 17:37:00.52 ID:EqP19IVs0.net
- タスク分解を備えた自律エージェントがAGI開発の次の壁を破りそうだけど、これが完成すると設計の壁が無くなるので、コーダーだけじゃなくSEも失業危機
- 480 :デフォルトの名無しさん :2023/12/03(日) 18:45:24.95 ID:ynYZS9P30.net
- そんなことができるなら誰も苦労はしない
- 481 :デフォルトの名無しさん :2023/12/03(日) 20:32:11.51 ID:PuZI2f4Xa.net
- >>477
主に違うのは学習方法だよ
GPTはRNNみたいに次の文字を推定するように学習する
一方BERTは任意の位置の穴埋め問題を解くような推定をする
- 482 :デフォルトの名無しさん :2023/12/03(日) 20:47:26.62 ID:PuZI2f4Xa.net
- あとBERTは最後に線形層などを追加して分類問題として使えたり
様々なタスクに使えるようにできてる
GPTはそうではないが結局プロンプトを分類問題として指定することで同じことができることが判明した
つまりGPTこそあらゆる機能に応用可能な存在だった訳だ
- 483 :デフォルトの名無しさん :2023/12/03(日) 22:08:28.11 ID:ynYZS9P30.net
- export PS1="$ "
- 484 :デフォルトの名無しさん :2023/12/04(月) 03:45:46.09 ID:GuHykRkTH.net
- マイニングが今儲かるのか儲からないのかの確認方法
を調べたらマイニング爆益やんけ
- 485 :デフォルトの名無しさん :2023/12/04(月) 12:42:48.87 ID:EqOxc786d.net
- >>473
全然あってなくて草🌿
>>481
基本的にはそれだね、今では学習方法のバリエーションは多いけど
- 486 :デフォルトの名無しさん :2023/12/09(土) 14:12:39.62 ID:yLX9lJOg0.net
- いまいちllmが浸透してこないよな
もっとこうグッと仕事に絡んでくるかと思ったけど
- 487 :デフォルトの名無しさん :2023/12/09(土) 14:29:27.66 ID:ksnI+CSba.net
- 単純に日本企業が無能過ぎてよくわかってないのと
既存の業務を変えたくない老害的な存在になってるからだろう
基本的に保守の塊だから生産性すらそのままにしていたい
- 488 :デフォルトの名無しさん :2023/12/09(土) 14:39:33.32 ID:hNxBYzU70.net
- LLMは人間っぽい口調の入出力に対応しただけのポンコツAIなのでお遊びにはいいけど金が絡む仕事の場合は出力結果の人力チェックが大変すぎて
出力自体を自分でやってた方が早かったじゃんってなる
- 489 :デフォルトの名無しさん :2023/12/09(土) 15:06:06.26 ID:ksnI+CSba.net
- その体裁を整える部分も学習に入るぞ
その体裁を整えるプロンプトこそChatGPTのキモなのだ
そこだけは論文でも隠されている
- 490 :デフォルトの名無しさん :2023/12/09(土) 15:23:44.91 ID:yLX9lJOg0.net
- 俺自身はコーディングやらメールの下書きでガンガンに使ってて重宝してるけど
ソレ以外の職種の人にとって有用なのかどうかわからん
- 491 :デフォルトの名無しさん :2023/12/09(土) 15:37:29.90 ID:ksnI+CSba.net
- 俺も使ってるけど流石に社内のソースを貼り付けたりまではしていないな
このソースのテストを書いてとか
リファクタリングしてとかできるのだろうけどね
情報漏洩になりかねないから
- 492 :デフォルトの名無しさん :2023/12/09(土) 15:40:09.61 ID:ksnI+CSba.net
- そういう意味ではやはり日本企業が遅れてるのだろうね
俺なら全社でChatGPTを解放する
社内のソースもどんどん貼り付けて利用しろというね
- 493 :デフォルトの名無しさん (ワッチョイ e344-7K/u [2405:6580:8220:1b00:*]):2023/12/09(土) 16:13:42.79 ID:yLX9lJOg0.net
- plus使っときゃ漏洩心配なくない?
- 494 :デフォルトの名無しさん (ワッチョイ c57c-qDWp [124.36.165.58]):2023/12/09(土) 17:13:59.22 ID:2UWzshUT0.net
- そういう俺様有能妄想は良いから
- 495 :デフォルトの名無しさん (ワッチョイ 6502-FJ+M [182.166.147.105]):2023/12/09(土) 17:37:42.44 ID:qlpSTh0a0.net
- >>486-488
LLMの本領は読解にこそあると思うな
論文や知的財産調査等の難解文まで検索して要点整理してくれるのは有難い
- 496 :デフォルトの名無しさん (アウアウウー Sa49-URLg [106.146.6.148]):2023/12/09(土) 17:44:05.84 ID:Kd9t/33Ca.net
- でもその内容が本当に合ってる保証は無くない?
164 KB
新着レスの表示
掲示板に戻る
全部
前100
次100
最新50
read.cgi ver.24052200