2ちゃんねる ■掲示板に戻る■ 全部 1- 最新50    

■ このスレッドは過去ログ倉庫に格納されています

【ChatGPT】AIチャット総合 15【Copilot・Gemini】

1 :名無しさん@お腹いっぱい。 :2024/05/02(木) 02:20:52.29 ID:2/1TXw1r.net
!extend:checked::1000:512
!extend:checked::1000:512
スレッドを立てる際は、↑の文字列を3行になるようにコピペしてください

ChatGPT・Copilot・Gemini・ClaudeなどのAIチャット、LLM(大規模言語モデル)、生成AI、その他関連サービスについて語るスレッドです。

・OpenAI ChatGPT
https://chat.openai.com/chat/

・Microsoft Copilot
https://copilot.microsoft.com/
https://www.bing.com/chat

・Google Gemini
https://gemini.google.com/

・Anthropic Claude
https://claude.ai/

前スレ:
【ChatGPT】AIチャット総合 14【Copilot・Gemini】
https://mevius.5ch.net/test/read.cgi/esite/1711879596/
VIPQ2_EXTDAT: checked:default:1000:512:: EXT was configured

438 :名無しさん@お腹いっぱい。:2024/05/15(水) 09:27:12.56 ID:QdDaRq90.net
イリヤ辞めちゃうんだな
アルトマン解任騒動とか色々あったけど

>>437
文章もそうだけどまだまだ生成AI臭さが抜けてないからクレーマー対応は出来ないだろうな

439 :名無しさん@お腹いっぱい。:2024/05/15(水) 09:39:45.59 ID:N3Xe3Xfc.net
Google I/O 2024基調講演まとめ AI一色、GPT-4oのような機能も
www.itmedia.co.jp/news/spv/2405/15/news094.html

生成AI搭載検索エンジン「AI Overview」(旧SGE)
GoogleフォトのAI機能「Ask Photos with Gemini」
Gemini 1.5 Proのアップデート
「Gemma 2」と「PaliGemma」
日常生活に役立つエージェント「Project Astra」
画像生成AI「Imagen 3」プロンプトから音楽ループを生成する「Music AI Sandbox」
テキストから動画を生成する「Veo」
AIを支える第6世代TPU「Trillium」
Google Cloudの「AI Hypercomputer」
「Gemini for Workspace」のアップデート
AIをチームメイトにする「AI Teammate」
自然に会話する「Gemini Live」
Gemini Avancedの強化
ようやくAndroidの話
責任あるAI開発の話

440 :名無しさん@お腹いっぱい。:2024/05/15(水) 09:49:15.07 ID:N3Xe3Xfc.net
>>439
この記事にはGemsの話が抜けてるな

とにかくGoogleはSora競合のVeoといい、GPTs競合のGemsいい、OpenAIを包囲しつつAI全方位戦略という感じ

441 :名無しさん@お腹いっぱい。:2024/05/15(水) 10:01:13.07 ID:N3Xe3Xfc.net
Google I/Oの発表には入ってないけど

Google、Geminiベースの新WebIDE「Project IDX」をオープンベータで公開
www.publickey1.jp/blog/24/googlegeminiwebideproject_idx.html

442 :名無しさん@お腹いっぱい。:2024/05/15(水) 10:09:29.11 ID:N3Xe3Xfc.net
OpenAI chief scientist Ilya Sutskever is officially leaving / Who didn’t see this coming after he tried to get Sam Altman fired?
www.theverge.com/2024/5/14/24156920/openai-chief-scientist-ilya-sutskever-leaves

主任科学者の後任はJakub Pachocki

443 :名無しさん@お腹いっぱい。:2024/05/15(水) 10:34:24.18 ID:N3Xe3Xfc.net
imgur.com/i0q0oN7.jpg
坊っちゃんの全文を与えて、
「坊っちゃんが教師として赴任してから遭遇した出来事を項目別に整理して説明してください。」

Gemini 1.5 Pro
33秒
Gemini 1.5 Flash
Proの倍ぐらいの分量を出力してきて、40秒

確かに軽い

444 :名無しさん@お腹いっぱい。:2024/05/15(水) 10:40:02.43 ID:5PypfTyk.net
>>428
アリとキリギリス
ウサギとカメ

445 :名無しさん@お腹いっぱい。:2024/05/15(水) 11:31:49.00 ID:QdDaRq90.net
生成AIって進歩してるけど1回で途切れなく1万文字ぐらいガッと出力することは出来ないんだよな
数千字程度が限度
思ったよりしょっぱい

446 :名無しさん@お腹いっぱい。:2024/05/15(水) 11:35:28.28 ID:GcveSMzz.net
字数指定すれば良くね?

447 :名無しさん@お腹いっぱい。:2024/05/15(水) 11:42:57.42 ID:vWxQOmbQ.net
普段使うのは1.5Flash、100万トークン超えそうな時は1.5Proでよさそうか

448 :名無しさん@お腹いっぱい。:2024/05/15(水) 12:23:44.94 ID:ls0ZHsOW.net
gemini 1.5 proってなんで普通に公開しないんだ?gemini ultraとかゴミ過ぎるのに

449 :名無しさん@お腹いっぱい。:2024/05/15(水) 15:17:51.17 ID:aWvTDxyo.net
デスクトップChromeにGemini Nanoを直接内蔵か
ありそうな展開ではある
Edgeは同じ方向には行かないのか?MSはちょうど小さいモデルを作ってるし

450 :名無しさん@お腹いっぱい。:2024/05/15(水) 15:19:05.89 ID:aWvTDxyo.net
貼り忘れた

@Google
Starting in Chrome 126, Gemini Nano will be built into the Chrome Desktop client itself. So you'll be able to deliver powerful AI features to Chrome’s billions of users without worrying about prompt engineering, fine tuning, capacity and cost. #GoogleIO

451 :名無しさん@お腹いっぱい。:2024/05/15(水) 15:37:45.74 ID:Mqmyqnw1.net
https://i.imgur.com/8k6hIJQ.png
Gemini 1.0 Ultraはもう1.5 Proに置き換わってる

452 :名無しさん@お腹いっぱい。:2024/05/15(水) 16:26:29.19 ID:M/YdcTDJ.net
vertex AIとかで無料で1.5pro使えるのに、有料のAdvanceに入らないと1.5pro使えないってのはどういう事なんだ?
情弱から20ドル取るって事?

453 :名無しさん@お腹いっぱい。:2024/05/15(水) 16:56:47.08 ID:YkW7h2K2.net
Gemsはいつ来るのかね?
https://gigazine.net/news/20240515-gemini-ai-gems/

454 :名無しさん@お腹いっぱい。:2024/05/15(水) 19:40:19.85 ID:f4bDY3bm.net
「OpenAIのスタッフがGPT-4oの新しいボイス機能をプレゼンする動画」をGoogleスタッフがProject Astraを使いながら見る動画
x.com/mmmbchang/status/1790473581018939663

455 :名無しさん@お腹いっぱい。:2024/05/15(水) 20:56:57.15 ID:Paibs5hD.net
英語の歌にカタカナつけて、なおかつリエゾン(リンキング)重視してって頼むとわりと近いの出してくれるな
これはかなり便利
claudeは著作権あるからってやってくれなかった

456 :名無しさん@お腹いっぱい。:2024/05/15(水) 21:04:12.56 ID:BrWwgJxJ.net
>>220
Consensus CopilotがGPT-4oに切り替わったよーってメール来たわ

457 :名無しさん@お腹いっぱい。:2024/05/15(水) 21:38:24.70 ID:eX28ImN1.net
右からこっちがしゃべってるみたいになった?

458 :名無しさん@お腹いっぱい。:2024/05/15(水) 21:47:34.40 ID:pE9iEQeX.net
来週のMS Buildは主に開発者向けにいろいろあるだろうけど、Copilot関連の発表が気になる

459 :名無しさん@お腹いっぱい。:2024/05/15(水) 22:42:20.98 ID:Rc28qy23.net
>>421
自己レスだけど少し違うな
申し訳AIが文脈を汲んでくれるようになっただけかもしれん

460 :名無しさん@お腹いっぱい。:2024/05/15(水) 22:58:22.20 ID:cK63X/J6.net
結局日本語処理能力じゃまだまだClaude 3 Opus一強なのか
GPT-4.5がでたとしてもOpusに並ぶか少し落ちるぐらいだろうしまだClaudeに課金する日々が続きそう

461 :名無しさん@お腹いっぱい。:2024/05/15(水) 23:01:33.34 ID:6/kmCS9H.net
https://i.imgur.com/nYV6ZHq.jpeg
GPT-4oのデータ分析は、とりあえず「分析して」ってざっくりとした指示でもそれなりにやってくれるから良いな
かつ速い
GPT-4tは、一旦こちらに投げてくる(一番右)

462 :名無しさん@お腹いっぱい。:2024/05/15(水) 23:22:05.13 ID:ls0ZHsOW.net
Claudeは逆に文章的なものしか出来なくね?
箇条書きに良い感じにまとめるとか弱くてダラダラ喋ってくる感じ
4oぐらいのレベルに達していれば、小説やブログとかの物書きを除けば4oでいいかな

463 :名無しさん@お腹いっぱい。:2024/05/15(水) 23:33:06.46 ID:GwyZCc/l.net
>>453
GPT Storeのようにエコシステムを構築するつもりがあるのかどうか

464 :名無しさん@お腹いっぱい。:2024/05/15(水) 23:34:18.56 ID:GwyZCc/l.net
Gemini 1.5 Flashの大量にトークンを入力した時の処理速度は良いね

465 :名無しさん@お腹いっぱい。:2024/05/15(水) 23:35:58.84 ID:GcveSMzz.net
箇条書きで答えて欲しければそう指示すれば良いのでは?
しかし2つ契約すると月6000円も飛んでいく
トホホ

466 :名無しさん@お腹いっぱい。:2024/05/15(水) 23:49:03.32 ID:pvvTi1yp.net
Perplexityで両方使うのが最適解

467 :名無しさん@お腹いっぱい。:2024/05/16(木) 01:38:28.60 ID:Ef/qwnOy.net
PerplexityのCEOのX/Twitterアカウントのヘッダー画像がPerplexityの式になってることを初めて知った
x.com/AravSrinivas

468 :名無しさん@お腹いっぱい。:2024/05/16(木) 06:02:33.14 ID:JPEoIhhb.net
OpenAIの“アルトマン解任劇”を主導、チーフサイエンティストの退社表明が波紋 | WIRED.jp
wired.jp/article/openais-chief-ai-wizard-ilya-sutskever-is-leaving-the-company/

469 :名無しさん@お腹いっぱい。:2024/05/16(木) 07:16:36.70 ID:e7uYQSaH.net
見返してみたけど、ほんとにコンマ何秒かですぐ消えたな

@bioshok3
> 大勢(僕も)が見逃していたけど、次のフロンティアモデルがもうすぐ来るという情報がGPT-4oイベントの最後にあったらしい。しかもこの画像動画を見ると1秒未満しか写ってなくて瞬時に消えたけど、確かに
Mira Murati氏「今日は無料ユーザーと新しいモダリティと新製品に重点を置きましたが、私たちは次のフロンティアについても非常に関心がありますので、次の大きなことに関する進捗状況をすぐにお知らせします。」と言ってるじゃん!皆gpt-4oの性能で一喜一憂しているが、あくまでgpt-4oは応答速度とマルチモダリティの革新であって、皆が求めてる性能向上はもうすぐ発表しますよと最後ちゃんと言ってたのに誰も意識してなかった…
まぁすぐというのがいつなのかは不明だが、少なくとも数か月、数週間以内には出るんじゃなかろうか。

470 :名無しさん@お腹いっぱい。:2024/05/16(木) 07:18:39.37 ID:e7uYQSaH.net
i.imgur.com/22YRtbE.jpeg
まあ口では確かにはっきり言ってるけど、こんなんほとんどの人が見てないw

471 :名無しさん@お腹いっぱい。:2024/05/16(木) 07:41:10.18 ID:2yGrotdh.net
とりあえずはGPT-4oがChatGPTを使う人のスタンダードになるのかな
契約せずに使っている人が大半だろうしちょっと楽しみ

472 :名無しさん@お腹いっぱい。:2024/05/16(木) 07:57:59.17 ID:nGPQDQ65.net
claudeみたいにほんのり性表現を匂わせただけでガチギレしないのはいいよな

473 :名無しさん@お腹いっぱい。:2024/05/16(木) 08:12:11.39 ID:hhcfxC26.net
現状有料版のメリットなさすぎるから、すぐに次のモデル出してくれないと割り合わないわな
4o以上なら期待出来る

474 :名無しさん@お腹いっぱい。:2024/05/16(木) 08:27:29.09 ID:VcZWA9XF.net
有料にするメリットはリアルタイムの会話、利用制限の緩さ、自分でGPTs作れる事
リアルタイムの会話は相当インパクトあるし、
無料利用者の裾野を広げれば、それなりにサブスクライバーも増えると見込んだんだろうな
いずれ出るGPT-5は有料にまず限定するだろうし
先々を考えても良い判断だと思う

command R試したんだけど、ハルシネーション出したとき、
虚構だという事を頑なに認めず、
読売だか朝日だかの有料会員でないと見れないページをソースとして示したり、
昔のテレビ番組で取り上げられたりしてるとか、
YouTubeで調べてみろとか言い出して
完全に振り回されたよ

475 :名無しさん@お腹いっぱい。:2024/05/16(木) 08:39:32.51 ID:Vv1lY1jm.net
図々しい発想かもしれないけど、もう無料でもブラウジング機能がないと、
普段使いで使う気がなくなってるんだよなあ

ブラウジング機能がない言語モデルは、使っても性能チェックだけで終って、
それ以降ほぼ触る事がない状態になる場合が多い

476 :名無しさん@お腹いっぱい。:2024/05/16(木) 10:27:01.59 ID:PGwqUYDZ.net
i.imgur.com/WLW1iAN.jpeg
Stockmark 100b
フルスクラッチの日本語モデルで100bとは頑張ったな
いくつか試した印象だと、ハルシネーションを軽減するためにプロンプトの指示に従うことをある程度犠牲にしたように感じる
ビジネスドメイン向けみたい

477 :名無しさん@お腹いっぱい。:2024/05/16(木) 11:28:49.01 ID:pxM49Q5Y.net
今更、gemini 1.5 proの動画要約の素晴らしさを認識した
エラーは多いけど他じゃ出来ないしな

478 :名無しさん@お腹いっぱい。:2024/05/16(木) 11:43:29.89 ID:qKD/XyjT.net
Geminiは根本的な推論能力に問題があるのがな……

479 :名無しさん@お腹いっぱい。:2024/05/16(木) 11:50:54.57 ID:nGPQDQ65.net
>>478
どこでGeminiやってその結果?

480 :名無しさん@お腹いっぱい。:2024/05/16(木) 12:00:24.36 ID:tixpRbrW.net
Twitterじゃ日本語では結構上位だって最近みるなGemini 1.5 pro
海外じゃ相手にされてないけど

481 :名無しさん@お腹いっぱい。:2024/05/16(木) 12:02:55.45 ID:ARS+Q56V.net
1時間の動画突っ込んでブログ記事に変換、とかはGeminiが便利

482 :名無しさん@お腹いっぱい。:2024/05/16(木) 12:16:54.49 ID:2JW1Ksfk.net
2Mだから研修会の動画とか長すぎて見る気がしないのも要約できるようになるから楽しみ

483 :名無しさん@お腹いっぱい。:2024/05/16(木) 12:24:30.07 ID:CSJrXPqr.net
Gemini 2Mのwaitlistは登録したけど、Imagen3とVeoは入力項目が面倒で登録してないわ
まあGeminiだけでいいんだけど

484 :名無しさん@お腹いっぱい。:2024/05/16(木) 14:17:04.85 ID:aoKCYc32.net
イリヤと一緒にヤン・ライクも辞めて、OpenAIのスーパーアライメントチームはどうなってしまうん?

485 :名無しさん@お腹いっぱい。:2024/05/16(木) 15:01:15.73 ID:aQoyPo+4.net
>>388
ここに公式のコメントがあった
もうちょっと待ってねと

help.openai.com/en/articles/8554397-creating-a-gpt
GPTs for paid users are currently powered by GPT-4. GPTs for paid users will switch to use GPT-4o in the next several weeks.

486 :名無しさん@お腹いっぱい。:2024/05/16(木) 15:23:52.81 ID:hhcfxC26.net
トークンが1Mとか言っても、1000文字ぐらいですぐに力尽きるんだが
これみんな納得してんの??

487 :名無しさん@お腹いっぱい。:2024/05/16(木) 15:41:06.21 ID:InPmQafi.net
応用技術者の問題やらせたら無料分使い切ったわ
しかも回答殆ど間違ってた

488 :名無しさん@お腹いっぱい。:2024/05/16(木) 15:41:42.40 ID:TiIobWAH.net


489 :名無しさん@お腹いっぱい。:2024/05/16(木) 15:45:49.60 ID:IvnetKG+.net
>>484
Copilot「大丈夫やで!」
copilot.microsoft.com/sl/fVvHQhXDgtg

490 :名無しさん@お腹いっぱい。:2024/05/16(木) 17:17:55.92 ID:5ZW+DSrB.net
声のやつって声色(こわいろ)も識別して質問者の感情の起伏をとらえることができるん?

491 :名無しさん@お腹いっぱい。:2024/05/16(木) 17:29:09.99 ID:VcZWA9XF.net
そう言ってたね
デモでは荒い息をして見せて、「掃除機みたい」とか言わせてた
でも息は声色じゃないよねーとは思った

492 :名無しさん@お腹いっぱい。:2024/05/16(木) 18:01:25.68 ID:5ZW+DSrB.net
だとしたら文字ベースの時よりもすげー計算量増えるよなぁ…

声紋というか声の周波数の微妙な変化をとらえ感情の状態をプラスαとして余分に読み取る計算を追加したってことやし…

493 :名無しさん@お腹いっぱい。:2024/05/16(木) 18:40:56.63 ID:cXW73kce.net
i.imgur.com/hpsWq2g.png
chat.lmsys.org 2024-05-15更新

Categoryを変えて比較すると、
- Llamaは英語で強い
- Qwen・Yiは中国語で強い
- Mistralは仏語で強い
- ClaudeはExclude Refusalで少し改善
の傾向は変わらず

494 :名無しさん@お腹いっぱい。:2024/05/16(木) 20:32:34.96 ID:q1E4bouH.net
>>493
東大イライザは日本語が苦手で英語が得意だから英語で質問してほしい。前は日本語に特化(集中)してると回答したじゃないかと質問したら
今も昔も日本語に特化してトレーニングした覚えはない!何度も確認(肯定・否定の両面から)質問を行っても清々しい放言に感動した
辛辣CommandR+に質疑応答を全て読み込ませたら「スタートアップ企業にありがちな買収までのフェイク商材だったんじゃね?」回答ワロタ

495 :名無しさん@お腹いっぱい。:2024/05/16(木) 21:24:32.69 ID:nGPQDQ65.net
AIに英語で質問したらすみません英語話せませーんって言われたらきっと微妙な気持ちになるな

496 :名無しさん@お腹いっぱい。:2024/05/16(木) 22:21:41.91 ID:LtXXdN5Z.net
そろそろGemini Advancedの2ヶ月無料権使おうかな

497 :名無しさん@お腹いっぱい。:2024/05/16(木) 22:25:38.84 ID:DJ9ldZ4/.net
ChatGPTのBlocks & Stateがロールアウト始まってるみたい
x.com/JeremyNguyenPhD/status/1790916442139034012

498 :名無しさん@お腹いっぱい。:2024/05/16(木) 22:28:47.08 ID:o9WYhmv8.net
iOSの方でplusのプラン買ってるのにブラウザからだとGPT4oの応答制限かかるのが意味わからん

499 :名無しさん@お腹いっぱい。:2024/05/16(木) 23:27:06.43 ID:hhcfxC26.net
gemini advanceってflashもろくな設定も使えないし入るメリットがなさ過ぎるな

500 :名無しさん@お腹いっぱい。:2024/05/16(木) 23:33:37.75 ID:g/5sO9a4.net
ろくな設定ってどんな設定?興味ある

501 :名無しさん@お腹いっぱい。:2024/05/16(木) 23:40:36.12 ID:hhcfxC26.net
chatGPTのUI変わったな

502 :名無しさん@お腹いっぱい。:2024/05/17(金) 00:30:30.44 ID:n/W0RkS4.net
それがどうした

503 :名無しさん@お腹いっぱい。:2024/05/17(金) 00:32:25.62 ID:dK8zeJoT.net
最近特に思うけど、ほんとこのスレもガイジ多いな
もうAIが十二分に賢くなったし、流石に見る意味ねーかここ

504 :名無しさん@お腹いっぱい。:2024/05/17(金) 01:38:26.70 ID:o5GIEyMD.net
あれ、Google AI StudioのCreate new promptからのFreedom prompt無くなったのか

505 :名無しさん@お腹いっぱい。:2024/05/17(金) 04:05:14.69 ID:o1BgSZXV.net
>>501
重くなった

506 :名無しさん@お腹いっぱい。:2024/05/17(金) 04:58:13.21 ID:9Bz3X9Aw.net
1000億パラメータのLLM、AIスタートアップが公開 フルスクラッチで開発 「ハルシネーションを大幅抑止」
itmedia.co.jp/aiplus/articles/2405/16/news172.html

507 :名無しさん@お腹いっぱい。:2024/05/17(金) 05:43:39.05 ID:6elzqPKf.net
宣伝は多いな、もういまさら突出した性能のモデルが出る訳もなく、
性能が上位のモデルでの寡占になりつつあるから、

最新のアップデート情報を追ってる人以外は、あんま見る意味ないかもね

508 :名無しさん@お腹いっぱい。:2024/05/17(金) 06:18:35.37 ID:CTNKbXjn.net
gpt有料版使ってるけどgeminiに切り替えた方が良いのかなぁ
詳しく分からないけどどっちの方が良いんだろ
youtubeの要約とかよく使うんだけど

509 :名無しさん@お腹いっぱい。:2024/05/17(金) 07:12:22.93 ID:9TUyrRW0.net
いま簡単にできるのはGeminiだろうね。
gpt4oのデモに45分動画の要約とかあったけどAPIなのかチャットで利用できる様になるのかまだわからん

あとGPT plus向けにもクラウドドライブ接続機能が正式にくるね

510 :名無しさん@お腹いっぱい。:2024/05/17(金) 08:34:41.98 ID:S/a0C++X.net
無料版Geminiで、設定-拡張機能-YouTubeをオンにしてから、新規のチャットで、YouTube動画のURLを貼って、要約して、と書いたら要約してくれた

ちなみに、要約って、動画の内容を文字で説明してくれることだよね?
動画の短縮版動画を作ってくれることじゃないよね?

511 :名無しさん@お腹いっぱい。:2024/05/17(金) 09:18:13.52 ID:K3KFKP6D.net
文字で説明だね
短縮版動画の出力をやってるとこは自分の知る限りではないと思う

512 :名無しさん@お腹いっぱい。:2024/05/17(金) 09:25:50.41 ID:uJcRX69l.net
>>506
>>476

513 :名無しさん@お腹いっぱい。:2024/05/17(金) 09:44:01.12 ID:OFa5ZNLD.net
YouTubeの要約というのは、トランスクリプトのテキストを読み込んで要約するということなら、既にGPTストアに腐る程たくさんある
GeminiのYouTube拡張機能も基本的には同じ仕組み

ちなみに動画を直接プロンプトに入力→要約させるのは、これとはやっていることが全く違う
(動画そのものをトークン化してNNに渡す)

Gemini AdvancedでGemini 1.5 Proが使えるようになったけど、今のGeminiのUIでは動画入力はまだ出来ない
動画入力をするならAI Studioを使う必要がある
(Poe経由でも一応できる)

514 :名無しさん@お腹いっぱい。:2024/05/17(金) 09:55:11.56 ID:OFa5ZNLD.net
文化庁の「AIと著作権に関する考え方」のパブリックコメント(個人)をGemini読ませてみた
gemini.google.com/share/160bef6a5558
資料は合計で約600kトークン

515 :名無しさん@お腹いっぱい。:2024/05/17(金) 10:10:28.26 ID:kd/bQBqM.net
GPTストアなんか行かなくてもbingのサイドバーcopilotで十分や

516 :名無しさん@お腹いっぱい。:2024/05/17(金) 10:16:39.41 ID:BFkiT0LQ.net
OpenAI and Reddit Partnership
https://openai.com/index/openai-and-reddit-partnership/

RedditのAPIにアクセスするカスタムGPTはあるけど、公式に対応するなら素のChatGPTでもいけるようになるのか

517 :名無しさん@お腹いっぱい。:2024/05/17(金) 10:47:49.75 ID:K3kIYC5x.net
pbs.twimg.com/media/GNu6ektWQAEibVr.jpg
うっかりお漏らし?意図的?
x.com/btibor91/status/1791230680707285346

518 :名無しさん@お腹いっぱい。:2024/05/17(金) 10:58:41.70 ID:pn8BV9aG.net
BardをGeminiに改称したのは悪手だったんじゃないかと思う
サービスとモデルを区別して呼びづらい

519 :名無しさん@お腹いっぱい。:2024/05/17(金) 11:15:10.05 ID:+PDtPIzP.net
>>517
Connected appsとADA v2は公式発表された
全ユーザーへの展開は時間がかかると思うが
https://openai.com/index/improvements-to-data-analysis-in-chatgpt/

520 ::2024/05/17(金) 12:11:23.07 ID:kGc/FuXj.net
ばあさんgpt5はまだかのう

521 :名無しさん@お腹いっぱい。:2024/05/17(金) 12:21:39.27 ID:KeOS4sY7.net
お前らはどんなバージョン出てきてもどうせ満足しないんだから
今のを使いこなしときなよ

522 :名無しさん@お腹いっぱい。:2024/05/17(金) 12:43:47.05 ID:h0Y46eh1.net
GPTsの出力が速くなった気がするけど気のせいかな?まだ中身はGPT-4Turboだと思ってたけど…
chatgpt.com/share/67f472d4-85de-4008-97b0-85d3f2b1b6e7

523 :名無しさん@お腹いっぱい。:2024/05/17(金) 12:47:40.27 ID:ajGwvhy9.net
Macアプリはいつ公開されるんだ?
公開されたらApple storeに出るだろうけど、まだ無いな。

524 :名無しさん@お腹いっぱい。:2024/05/17(金) 12:47:41.45 ID:viP9F6ib.net
adav2はExcelの指示がし易そう
数週間以内にリリースだから新しいDALLも来るし5月、6月もわくわくや

525 :名無しさん@お腹いっぱい。:2024/05/17(金) 12:51:46.88 ID:7OCqnM+S.net
>>523
おまいが持ってるのがIntel Macなら永久に出ないぞ
オレが探したから間違いない

526 :名無しさん@お腹いっぱい。:2024/05/17(金) 12:57:57.83 ID:YChFWEEd.net
>>525
M1未満は切り捨てされてるの?

527 :名無しさん@お腹いっぱい。:2024/05/17(金) 13:22:37.04 ID:7OCqnM+S.net
https://help.openai.com/en/articles/9275200-using-the-chatgpt-macos-app

528 :名無しさん@お腹いっぱい。:2024/05/17(金) 13:26:49.19 ID:Vr+yYdmN.net
まだ嘘多いな

529 :名無しさん@お腹いっぱい。:2024/05/17(金) 13:35:05.66 ID:2vqBZKrk.net
>>514
死刑ひどいw

530 :名無しさん@お腹いっぱい。:2024/05/17(金) 13:44:29.17 ID:9I+gcpOW.net
>>527
>https://help.openai.com/en/articles/9275200-using-the-chatgpt-macos-app
どこからダウンロードするんだ?
どこにも見当たらまい。まだ、日本では使えないのかな。

531 :名無しさん@お腹いっぱい。:2024/05/17(金) 14:19:24.96 ID:RnXxEOoX.net
OpenAIのマルチモーダルの音声入力は、音声のLLMみたいのをゼロから作ってるのかな?
音声での学習で英語はいいとして、日本語や他の言語はどうするんだろう?
各言語ごとに音声の学習をするのかな?
テキストの翻訳みたいにはうまくできない気がするが

それとも喜怒哀楽の声色のパターンをある程度学習すれば、それに当てはめる形で、言語が違っても結構簡単に喜怒哀楽の分析ができるとか?

それと、メタのLLMを使ってる贅等が、音声のマルチモーダルをやろうとする場合は、音声のLLMをメタや他社がオープンソースで出してくれないと参入できないのかな?

532 :名無しさん@お腹いっぱい。:2024/05/17(金) 14:43:45.19 ID:/6Fev/VD.net
>>298
このGPT-4oのend-to-endってのが、いろんな反応を見てるとなかなか理解されていないように思う

今までの

音声入力→Whisper→テキスト→GPT-4→テキスト→OpenAI TTS→音声出力

これが、GPT-4oでは

音声入力→GPT-4o→音声出力

になったってことだよね

533 :名無しさん@お腹いっぱい。:2024/05/17(金) 14:46:35.56 ID:/6Fev/VD.net
imgur.com/OjpmA5S.jpg
Geminiのレポートに載ってたこの概念図と基本的な考え方は同じ

534 :名無しさん@お腹いっぱい。:2024/05/17(金) 14:56:27.16 ID:9Bz3X9Aw.net
>>533
これって、もう構築済みのテキストのLLM(gpt-4やgemini)に音声や映像の入力もつなげてるのかな?
テキストもゼロから入力する場合と、既存のテキストLLMに音声等を繋げる場合で、音声や映像の精度に違いが出るのか等、いろいろ興味が湧く

535 :名無しさん@お腹いっぱい。:2024/05/17(金) 15:06:07.72 ID:9Bz3X9Aw.net
テキスト、音声、画像、映像、以外にも、いろいろセンサーをつなげて入出力できるオープンソースのTransformerをどこかの社が出してほしいな

536 :名無しさん@お腹いっぱい。:2024/05/17(金) 15:06:52.48 ID:nR+6SGDE.net
>>533
i.imgur.com/tfY0Bg8.jpeg
Geminiのロゴは実はこれを表したもの

537 :名無しさん@お腹いっぱい。:2024/05/17(金) 15:09:50.17 ID:9Bz3X9Aw.net
でも、テキスト、音声、画像、映像だけでも、ユーザーが学習させられる機能があれば、競馬場で馬の様子をスマホで映してレース結果も学ばせて、学習を積めば100発100中の競馬予想AIが作れるよね

538 :名無しさん@お腹いっぱい。:2024/05/17(金) 15:11:29.48 ID:9Bz3X9Aw.net
犬猫を撮影して、犬猫会話AIも作れるだろうし

総レス数 1004
269 KB
新着レスの表示

掲示板に戻る 全部 前100 次100 最新50
read.cgi ver.24052200