2ちゃんねる スマホ用 ■掲示板に戻る■ 全部 1- 最新50    

■ このスレッドは過去ログ倉庫に格納されています

【GPGPU】くだすれCUDAスレ part7【NVIDIA】

1 :デフォルトの名無しさん:2014/11/20(木) 23:14:46.66 ID:jr3oZn27.net
このスレッドは、他のスレッドでは書き込めない超低レベル、
もしくは質問者自身何が何だが分からない質問を勇気を持って書き込むスレッドです。
CUDA使いが優しくコメントを返しますが、
お礼はCUDAの布教と初心者の救済をお願いします。

CUDA・HomePage
ttp://developer.nvidia.com/category/zone/cuda-zone

関連スレ
GPGPU#5
ttp://peace.2ch.net/test/read.cgi/tech/1281876470/l50

前スレ
【GPGPU】くだすれCUDAスレ【NVIDIA】
ttp://pc12.2ch.net/test/read.cgi/tech/1206152032/
【GPGPU】くだすれCUDAスレ pert2【NVIDIA】
ttp://pc12.2ch.net/test/read.cgi/tech/1254997777/
【GPGPU】くだすれCUDAスレ pert3【NVIDIA】
ttp://hibari.2ch.net/test/read.cgi/tech/1271587710/
【GPGPU】くだすれCUDAスレ pert4【NVIDIA】
ttp://hibari.2ch.net/test/read.cgi/tech/1291467433/
【GPGPU】くだすれCUDAスレ part5【NVIDIA】
http://toro.2ch.net/test/read.cgi/tech/1314104886/
【GPGPU】くだすれCUDAスレ part6【NVIDIA】
ttp://peace.2ch.net/test/read.cgi/tech/1348409867/

2 :デフォルトの名無しさん:2014/11/20(木) 23:15:41.57 ID:jr3oZn27.net
関連サイト
CUDA
http://www.nvidia.co.jp/object/cuda_home_new_jp.html

CUDAに触れてみる
http://chihara.naist.jp/people/STAFF/imura/computer/OpenGL/cuda1/disp_content

CUDA のインストール
http://blog.goo.ne.jp/sdpaninf/e/9533f75438b670a174af345f4a33bd51

NVIDIAの「GeForce 8800 GT(G92)」と次に控える64-bit GPUアーキテクチャ
http://pc.watch.impress.co.jp/docs/2007/1031/kaigai398.htm

CUDAを使う
http://tech.ckme.co.jp/cuda.shtml

NVIDIA CUDAを弄ってみた その2
http://dvd-r.sblo.jp/article/10422960.html

CUDAベンチ
http://wataco.air-nifty.com/syacho/2008/02/cuda_2044.html

KNOPPIX for CUDA
http://www.yasuoka.mech.keio.ac.jp/cuda/

3 : 【東電 69.8 %】 :2014/11/21(金) 00:13:37.04 ID:kFWiXf0I.net
>>1
ああ、キミ!また会えたね。久しぶりだ。どうだいあの件は?どうなったか説明したまえな。

神戸市の東、芦屋西宮の知的障害者施設で未成年利用者に性的な行為をして淫行条例で逮捕された三田谷学園元職員の堂垣直人(西宮市老松町)は、結局どういう罪になったの?
被害者家族のケアを芦屋市役所と兵庫県警はちゃんとやったのか?
差別や虐待は環境を選べない子供には関係ない。

http://www.youtube.com/watch?v=JxMzW3ZlV4g&sns=em


まあ、こっちに座れよ。ゆっくり話そうじゃないか。

4 :デフォルトの名無しさん:2014/11/21(金) 07:36:45.42 ID:JsFj8Vej.net
http://i.imgur.com/SduT7qR.jpg
http://i.imgur.com/2f8fP3F.jpg
http://i.imgur.com/u0ymg8c.jpg
http://i.imgur.com/LruEssT.png
http://i.imgur.com/AeSQqRT.jpg
http://cisburger.com/up/bnf/6016.jpg
http://up.pangya.tv/src/www_pangya_tv18594.jpg

5 :デフォルトの名無しさん:2014/11/21(金) 18:05:42.00 ID:qiUQrZk/.net
syncthreadsとthreadfence_blockの違いが分かりません
syncthreadsだけで十分な気がしますが、どういう時に使い分けるのでしょうか?

6 :デフォルトの名無しさん:2014/11/22(土) 13:34:27.11 ID:Ke1g3qvZ.net
>>5
http://shobomaru.wordpress.com/2013/09/13/synchronizing-instruction-in-direct-compute-and-cuda/

メモリの書き込み競合防止をするかどうかの違いみたいです。

これってatomic命令より軽いのか知らん?

7 :デフォルトの名無しさん:2014/11/22(土) 13:48:05.92 ID:S8C7U0PL.net
>>6
競合防止なんて書いてる?
複数のスレッドが同じメモリに書き込む時はatomicをsyncthreadsやthreadfenceと同時に使わないといけない気がする(誰か教えてください)

8 :デフォルトの名無しさん:2014/11/22(土) 22:18:58.72 ID:Ke1g3qvZ.net
すみません、誤読しました。
「同じブロック内の全スレッドがこの命令にたどり着く」
まで待つかどうかの違いですね。

9 :デフォルトの名無しさん:2014/11/24(月) 04:18:18.83 ID:qPQKDlD6.net
今一番コスパ高いカードってなに?

10 :デフォルトの名無しさん:2014/11/24(月) 04:21:35.17 ID:qPQKDlD6.net
謝罪文みても思い上がりが激しい

11 :デフォルトの名無しさん:2014/11/25(火) 19:26:42.72 ID:kFuypilU.net
プログラムのカーネル部分がどうしても実行されません(サンプルプログラムでは実行されていました)
どなたか原因に心当たりはありませんか?(私はありません)
ブレークポイントで確認したところカーネルの上下にあるクロックは実行されており、
カーネルだけが実行されていませんでした(カーネルの中へ入って行かないという意味です)

以下が呼び出しで、dim3はグローバルで定義してあります
dim3 blocks((num + max - 1) / max, (num + max - 1) / max);
dim3 threads(max, (1024 + max - 1) / max, 1);

void calculation(void)
{
clock_t start, end;
start = clock();
cal<<<blocks, threads>>>(con, num, points, data);
end = clock();
cout << double(end - start) / CLOCKS_PER_SEC << "\n";
}

12 :デフォルトの名無しさん:2014/11/25(火) 21:02:59.83 ID:N/U8okyJ.net
>>11
dim3構造体のメンバ変数をプリントしたらどうなりますか?

13 :デフォルトの名無しさん:2014/11/25(火) 21:44:27.45 ID:kFuypilU.net
>>12
>11のcalculation()の最後の行にプリントの一文を入れてみましたが
ブロックが(128,128)、スレッドが(128,8)と想定通りでした
(スレッドは1ブロック当たり1024個まで配置可能なのでギリギリセーフなはずです)

忘れていましたが、呼び出し先です
この中にブレークポイントを配置してもプログラムが止まらないという魔の領域となっています
(もちろんnsightのcuda debuggingでデバッグしています)
__global__ void cal(double con, int num, a_data *points, b_data *data)
{・・・}

14 :デフォルトの名無しさん:2014/11/26(水) 18:34:20.92 ID:cpKKMAIz.net
>>13
カーネルが実行されているかどうかはどうやって確認していますか?

15 :デフォルトの名無しさん:2014/11/26(水) 19:30:35.81 ID:mOjmGjn5.net
>>14
>>13に書いた通り、ブレークポイントをカーネルの中に入れて実行されているかどうかを確認しています
描画をするプログラムなので図形が動くか動かないかでも判断できます

16 :デフォルトの名無しさん:2014/11/26(水) 20:04:14.26 ID:qey6HT7s.net
おれもカーネルに入らないケース出たわ
原因調査中・・・

17 :デフォルトの名無しさん:2014/11/27(木) 08:04:41.88 ID:7alpN+o4.net
>>15
CUDAのデバッガ使った事がない(ひたすらprintf)ので
一般論的な事しか言えませんが、
怪しそうな処理をコメントアウトしていったらどうでしょう?
変なメモリアクセスで落ちるとか割とありがちな気が。

18 :デフォルトの名無しさん:2014/11/28(金) 22:55:16.84 ID:JeOcX4pA.net
おれもカーネルに入らない
ただなぜかcygwinでコンパイルするとカーネルが起動する
なんでじゃ・・・

例のvisual studio2013もインストールしてみたいな〜

19 :デフォルトの名無しさん:2014/11/28(金) 23:06:00.72 ID:JeOcX4pA.net
>>18だけど
osはwindows8.1
コンパイラはcuda6.5+vs2013 express
カーネルは担当する要素を+1するだけのもの
これをコマンドプロンプトでコンパイルしてもカーネルは動かなかった(?)
動かないと判断したのは結果をmemcpyしてホスト側に返しても+1されてなかったから
もしかしたら正常にmemcpyされてないだけかもしれない

カーネルに入らない人はcygwin使ってみるといいかもね
本質的な解決にはならないけど・・・

20 :デフォルトの名無しさん:2014/11/30(日) 20:47:05.05 ID:NdicNENH.net
ビジュアルプロファイラー使ってみたら。

21 :デフォルトの名無しさん:2014/12/03(水) 14:38:19.35 ID:GXBajCbw.net
kernel実行後にcudaGetLastError()でRCを取得
そうするとkernel実行結果が分かる
RCの数値は自分で調べてね

22 :16,21:2014/12/04(木) 22:23:47.78 ID:EZ4odEf+.net
21の情報は役だったかな?
自分の場合(LINUX)、RC=7(too many resources requested for launch)だったので
コンパイルオプションに -Xptxas -vを追加して使用レジスタ数を確認。

結果ハードウェアのレジスタ数を超過したためにカーネルの処理が行われなかったことが判明。
スレッドサイズを小さくして問題解決。
因みに使用レジスタはハードウェアによって変わる。

23 :デフォルトの名無しさん:2014/12/05(金) 14:06:24.56 ID:+nFWXccn.net
>>22
ちょっと興味があるんですけれど、
カーネルのサイズは動的に決めてるんですか?

前にソースコードにブロック数とスレッド数をべた書きで
大きいサイズを指定したらコンパイルの段階ではじかれた事があったんで。

24 :>>15:2014/12/05(金) 15:37:53.47 ID:fpNGtjbn.net
>>21
ありがとうすごく役に立ったよ
ここ最近忙しくてpc触れなかったんだ
自分も同じく「error: too many resources requested for launch」だった
原因を調べてみるよ

あと、自動でエラー内容もだせるみたいだね
http://homepage2.nifty.com/takaaki024/tips/programs/gpgpu/cuda.html

>>20
ビジュアルプロファイラーも便利そうだから調べてみるよ

25 :デフォルトの名無しさん:2014/12/07(日) 18:17:39.03 ID:g9DGYGEw.net
x,y,zの3つの変数から成る構造体配列A,B(同じサイズ)があったとして
BからAへそれぞれ対応するデータを転送する場合

Ax,Ay,Az,Bx,By,Bzという同じサイズの構造体でない配列が6つあったとして
BからAへそれぞれ対応するデータを転送する場合(BxからAxなど)

前者と後者では後者の方が転送速度は上がりますか?

26 :デフォルトの名無しさん:2014/12/08(月) 12:53:10.47 ID:JbpvX5Qi.net
>>25
一般論としてデータ量が同じなら一回にまとめてを転送した方が効率はよくなりますね。

27 :デフォルトの名無しさん:2014/12/11(木) 11:46:54.75 ID:kV0/O7vj.net
memcpyって同期とるもんね

28 :デフォルトの名無しさん:2014/12/12(金) 21:54:58.15 ID:PdQu+k/h.net
kernelの中で使えるタイマー関数はありますか?

29 :デフォルトの名無しさん:2014/12/12(金) 23:43:18.27 ID:q1FKM2bt.net
clock()関数が使えるよ。

30 :名無しさん@そうだ選挙に行こう:2014/12/13(土) 22:02:15.64 ID:B9P4oQcX.net
>>29
サンキュー
試してみるよ

31 :デフォルトの名無しさん:2014/12/16(火) 21:07:44.74 ID:6hyQD5WD.net
自分の持っていないGPUの共有メモリの量などの詳細を知ることはできますか?

32 :デフォルトの名無しさん:2014/12/17(水) 08:36:19.04 ID:0flByQKi.net
http://en.wikipedia.org/wiki/CUDA#Version_features_and_specifications

Maximum amount of shared memory per multiprocessor
あたりかな。

33 :デフォルトの名無しさん:2014/12/17(水) 20:16:42.59 ID:D/43rANg.net
>>32
ありがとうございます
嬉しいことに5.0以降から容量が増えてるみたいですね

34 :デフォルトの名無しさん:2014/12/17(水) 20:55:04.06 ID:vfaS5qRM.net
なんでCCのバージョン3.5から5.0に飛んでるの?
SDKのバージョンと合わせたのか?

35 :デフォルトの名無しさん:2014/12/19(金) 18:38:15.45 ID:dxBCSCiu.net
二つ以上のGPUでVBOを使用する場合、データの流れはどうなっているのでしょう?
やはり一旦ディスプレイに接続側のGPU出力データが集められ出力されるのですか?

36 :デフォルトの名無しさん:2014/12/20(土) 13:19:39.58 ID:hlsDA/2G.net
プロファイラ使えばわかるんじゃない?

37 :デフォルトの名無しさん:2014/12/20(土) 13:33:50.56 ID:ARYnLzi0.net
>>34
ゲフォの800番台がスルーされたからかも?

38 :デフォルトの名無しさん:2014/12/20(土) 14:31:13.88 ID:NgIUM6cpA
メイン関数内でcudaMallocManagedを用いてユニファイドメモリを確保して
その後メイン関数内でデータを代入し、GPU関数へポインタを渡したのですが、
値を利用できません。

だれか詳しく解決方法を教えてください

39 :デフォルトの名無しさん:2014/12/20(土) 14:34:48.04 ID:NgIUM6cpA
38ですがこんな感じに参照してます
__global__ void check_mem(int *file_top,int *d_test){
  int x = blockIdx.x * blockDim.x + threadIdx.x;
  d_test[x] = *(file_top + x);
}

file_topに値が入っていることはメインで確認が取れてます

40 :35:2014/12/20(土) 22:32:39.87 ID:ovXiOWlC.net
>>36
少し気になって質問してみただけで今自分は一つしか持っていません!

もう一つGPUを購入した時の為にvisual profilerを使えるようになっておこうと思い
ビルドした実行ファイルでプロファイラを使用してみたところ「Warning: No CUDA application was profiled, exiting」とエラーが出てしまいました
6.5のツールキットを使用して新しいセッションを作成→ビルドした実行ファイルを選択→設定はデフォルト、としたのですが何がダメだったのでしょう?
nvidiaの説明書を見てもさっぱりです。ヒントだけでもいいので教えてください

41 :デフォルトの名無しさん:2014/12/21(日) 10:11:52.91 ID:aUL9MF/2V
cudaDeviceReset() が必要のはず。

Visual Studioで「CUDA X.X Runtime」のプロジェクトを作ったら、
kernel.cu の return 0; の直前のコードに、以下のように書いてある。

// cudaDeviceReset must be called before exiting in order for profiling and
// tracing tools such as Nsight and Visual Profiler to show complete traces.
cudaStatus = cudaDeviceReset();

42 :デフォルトの名無しさん:2014/12/21(日) 12:30:22.37 ID:C04pqXsd.net
>>40
cudaDeviceReset() が必要のはず。

Visual Studioで「CUDA X.X Runtime」のプロジェクトを作ったら、
kernel.cu の return 0; の直前のコードに、以下のように書いてある。

// cudaDeviceReset must be called before exiting in order for profiling and
// tracing tools such as Nsight and Visual Profiler to show complete traces.
cudaStatus = cudaDeviceReset();

43 :35:2014/12/21(日) 22:57:23.15 ID:McLr4XTH.net
>>42
ループしているプログラムなのでエスケープキーを押すと後処理関数をatexit関数で呼び出して終了するようになっています
その後処理関数の中にcudaDeviceReset();を入れているのですがこれではダメなようです
それともcudaError_t cudaStatus = cudaDeviceReset();としてcudaStatusをどこかへ渡すのでしょうか?

44 :デフォルトの名無しさん:2014/12/22(月) 00:14:29.09 ID:6pNe5aqW.net
>>43
とりあえず、>>42を新規プロジェクト作ってプロファイラの
動作を確かめてから、あらためて自分のソースコードに反映すれば?

45 :デフォルトの名無しさん:2014/12/23(火) 10:16:58.70 ID:rFJPpcq3i
玄人志向のPCI-Express x16→PCI-Express x1変換ケーブルキット
「PCIEX16-X1/KIT」を使ってcudaやってみた人いますか?

46 :デフォルトの名無しさん:2014/12/23(火) 15:40:43.82 ID:bsnZ8h6l.net
>>44
新規プロジェクトでサンプルプログラムが生成されるのを忘れていました
おそらくサンプルのプロファイルに成功したので自分のプログラムに反映させようと思います
ありがとうございました

47 :42:2014/12/24(水) 18:51:30.92 ID:/5m6EieY.net
一応書いておきます
調べてみた結果、必要なものはcudaDeviceReset();を呼び出すことのみでした
自分のプログラムがプロファイル出来なかった原因は.dllが.exeと同じ場所に無かったからでした

48 :デフォルトの名無しさん:2014/12/24(水) 20:32:20.58 ID:6fZpwBGv.net
並列化についての質問です
スレッドやブロックを増やしてもあまり計算速度に差が出ないのですがどのような理由が挙げられますか

49 :デフォルトの名無しさん:2014/12/24(水) 20:59:33.63 ID:SBHK+d/x.net
どう変わると思った?計算量自体は変わらんのだぞ。

50 :デフォルトの名無しさん:2014/12/24(水) 21:07:44.58 ID:6fZpwBGv.net
最初は一つのスレッドにつき4回ほどループさせ計算をしていました
その後、スレッド数を2倍にしてループ数を半分の2回しました
計算速度は2倍になるだろうと予想していましたが、あまり変わりませんでした

51 :デフォルトの名無しさん:2014/12/24(水) 21:23:52.28 ID:SBHK+d/x.net
ハード的に同時に実行できるスレッドは有限なんだから、それ以上スレッドを増やしても
物理的に速くなりようがない。

52 :デフォルトの名無しさん:2014/12/24(水) 22:24:43.11 ID:pbZqH+Xm.net
プログラム上のスレッド数とハード上のスレッド数は違うと言うことですか

53 :デフォルトの名無しさん:2014/12/24(水) 22:50:48.00 ID:3hqu78L7.net
スレッドが多ければ、メモリアクセスでスレッドが止まっている間
cudaコアは別のスレッドを実行できる

54 :デフォルトの名無しさん:2014/12/27(土) 01:57:38.03 ID:u9BI3CqV.net
基本的にはcudaコアの数だけしか並列計算出来ないのですか

だけしかと言ってもコアは何百もありますが

55 :デフォルトの名無しさん:2014/12/27(土) 06:52:06.91 ID:fxVjSbuk.net
ある瞬間、実際に並列に処理されているということと、理論上並列に扱われるということは別の話ですよ

上のレスにもありますが、計算速度的には実際に処理を行うヤツが足りていなければそこで頭打ちになるのは当然かと

56 :デフォルトの名無しさん:2014/12/27(土) 10:09:35.39 ID:W6Y2DM4+.net
cudaコアの数以上にスレッドを生成する利点は
メモリアクセスの遅延の隠蔽にある

57 :デフォルトの名無しさん:2014/12/28(日) 20:39:13.97 ID:52BL0aAq.net
550TIで使っていたプログラムを750TIで走らせて見たところ1.5倍ほど遅くなってしまいました
何故でしょうか?

58 :デフォルトの名無しさん:2014/12/29(月) 02:19:31.23 ID:YUQudPNs.net
腐ってやがる。早すぎたんだ

59 :デフォルトの名無しさん:2014/12/29(月) 09:47:06.28 ID:Sx0YYE+e.net
>>57
一度のカーネル実行で処理するデータ量を増やしたら改善しませんか?

60 :デフォルトの名無しさん:2014/12/29(月) 09:51:11.07 ID:Sx0YYE+e.net
>>57
maxwellは倍精度がそーとーしょぼいので、
cuda-zかなんかで性能をチェックした方がよいかもしれません。
http://sourceforge.jp/projects/sfnet_cuda-z/

61 :デフォルトの名無しさん:2014/12/29(月) 12:03:33.25 ID:oV4aoJAy.net
>>60
本当にしょぼかった。陽子ビームぶち込みたい。
どうやらマクスウェルさんは演算用には向いていないようですね

62 :デフォルトの名無しさん:2014/12/29(月) 12:51:57.86 ID:oV4aoJAy.net
コア数が3倍になっていることを考慮すればそれでも遅い気がしますね

63 :デフォルトの名無しさん:2014/12/31(水) 21:08:03.80 ID:3b0Wn462.net
CUDA初学者です
cudaBindTexture2D()のpitchとoffsetは何を表しているのですか?
手元の書籍のサンプルから推測するに
pitchは一次元の配列を二次元のテクスチャに入れる場合の折り返し地点のようなもの
でしょうか?それならwidthとhighだけでも十分ではないかと言う疑問も出てきます。

そして一番の疑問がテクスチャメモリの存在です。
いくら二次元、三次元配列が使えるとは言え512バイトしか容量のないテクスチャメモリは64キロバイトもあるコンスタントメモリに劣るのではないでしょうか?
長々と失礼いたしましたm(_ _)m

64 :デフォルトの名無しさん:2014/12/31(水) 23:07:39.94 ID:WrP28EMy.net
>>56
それじゃあストリームは何のためにあるのさ?

65 :デフォルトの名無しさん:2015/01/01(木) 12:48:51.81 ID:82JnHkZd.net
>>64
どっちも使えるなら、実験して早い方を採用
同時に並んでいるスレッド数を増やしてcudaコアが遊ばない状況
を作り出すことが重要

ストリームの使い道は異なるカーネルの並列実行だと思ってる

66 :デフォルトの名無しさん:2015/01/02(金) 01:42:39.20 ID:aooXGYY5.net
>>65
なるほどね

67 :デフォルトの名無しさん:2015/01/02(金) 10:40:26.85 ID:2fT8SJ1Ez
>>65
「ストリームの使い道は異なるカーネルの並列実行」というのは
何が言いたいのか良くわからないが、捕捉すると、

ストリームはCPU-GPU間のデータ転送中(非同期のcudaMemcpy)に、GPUで演算(カーネル実行)させる為の仕組みだ。

「あるストリームがデータ転送待ち中に、別のストリームのカーネルを実行する。」
といった事を、賢くやってくれる。
(別のストリームが「異なるカーネル」でなく、「同じ関数のカーネル」でも良い。)
結果、「データ転送待ち」の時間を節約できる。

ストリームの詳細は、書籍に書いてあるが、
データ転送とカーネル実行をストリームに入れる「推奨の順番」が
cc3.5からは違うので、古い本の場合は読み替える必要あり。

68 :67:2015/01/02(金) 11:01:01.35 ID:2fT8SJ1Ez
まとめると、こんな感じ。
(※同じプログラムで、以下の両方を使う事も可能。)

・cudaコアの数以上にスレッドを生成する:「GPU」と「GPU側のDRAM」間のメモリアクセスの遅延の隠蔽が期待できる。

・ストリームを使う:「CPU側のDRAM」と「GPU側のDRAM」間のメモリアクセスの時間の節約が期待できる。

69 :デフォルトの名無しさん:2015/01/03(土) 13:07:05.02 ID:yWVdPt25.net
970/980は確かにゲームのパフォーマンスは上がってるが帯域減ってるから
GPGPU用途では微妙になってしまったな

70 :デフォルトの名無しさん:2015/01/09(金) 00:33:57.02 ID:Iq4Pw+IC.net
Toolkit 6.0 + VS 2008から
Toolkit 6.5 + VS 2013に移行したら
遅くなっちゃったんだけど、そういう人ほかにいる?

71 :デフォルトの名無しさん:2015/01/12(月) 00:15:12.48 ID:crrCnhEj.net
CUDAの日本語ページって4.0とかの古い情報ばっかりじゃね
6.0/6.5では全然仕様が違ってて全然使えない

72 :デフォルトの名無しさん:2015/01/16(金) 07:53:04.52 ID:IHSf0jGJ.net
CUDA7.0 RC

73 :デフォルトの名無しさん:2015/01/16(金) 09:02:56.43 ID:VQ2eHsT0.net
もうCUDAも成熟してしまった感があるなあ。

74 :デフォルトの名無しさん:2015/01/25(日) 10:58:33.86 ID:m2kue9j8.net
970の影響でGPUメモリテストが流行っているね。

75 :デフォルトの名無しさん:2015/02/06(金) 21:35:53.90 ID:72/Q/UeS.net
ここ何週間かデバッグを続けているのですが原因を突き止めることが出来ません
初学者がはまりやすいミスやデバッグのこつなんかを教えてもらえませんか?
明らかなバグなら原因を突き止めやすいのですが、かなり微妙なバグなのでなかなか見つけられず困っています

76 :デフォルトの名無しさん:2015/02/07(土) 00:48:46.19 ID:OS4q1AxS.net
printfとかで要素を表示してデバックしてみれば?

77 :デフォルトの名無しさん:2015/02/07(土) 13:10:14.61 ID:4cvxubK6.net
syncthreadとか?
if文の中に書いてたりすると同期ずれが起こったりするなー
他には確保してないメモリへのアクセスとか?

>>76の通り、printfとかで、配列の添字とか値を表示するしかないのかな?

78 :デフォルトの名無しさん:2015/02/08(日) 15:23:01.85 ID:E04CIgi2.net
>>76
>>77
ありがとうございます
1セットの計算量があまりにも多いのでprintfの方法は難しいです
シンクロや範囲外アクセスもありませんでした

原因が分かっちゃったかも知れないので質問です
中間計算結果→atomicAdd
中間計算結果→配列→atomicAdd
こんな風に同じ数値を使った計算でも一度配列を通してしまうとatomicAddによって追加された計算結果に差が出たりしますか?

79 :デフォルトの名無しさん:2015/02/08(日) 15:48:00.96 ID:E04CIgi2.net
変数に入れると精度は落ちますね
お騒がせしました

80 :デフォルトの名無しさん:2015/02/08(日) 21:32:20.44 ID:BpjOkBmf.net
>>78
ちょっと面倒だけど、要素が多い場合は減らしてやってみるとか、どうだろうか?

何はともあれ、原因判明したみたいで、おめでとう

81 :デフォルトの名無しさん:2015/02/08(日) 22:56:08.44 ID:KLuvC02r.net
>>80
それは意外な盲点でした
数を減らせば良かったのですね

82 :デフォルトの名無しさん:2015/02/09(月) 10:20:08.08 ID:pN+UjOmC.net
>>78
fpが(a+b)+c != a+(b+c)を知らないとかではないよね?

83 :デフォルトの名無しさん:2015/02/09(月) 23:18:25.64 ID:QR2S1do8.net
volatile使うとか?
変数の宣言とか関数の引数の型の前にvolatileをいれると・・・

84 :デフォルトの名無しさん:2015/02/17(火) 21:40:32.15 ID:K8c74Rhe.net
>>57
750TIでGPGPUって考えていたけど、750TIって2世代前の同ランクぐらいの550TIより性能悪いのか。
一般ゲーム用VGAではGPGPU能力ってたいして要らないから落としたのかな

いろいろなゲーム用VGAの単精度、倍精度の能力が載ったホームページ教えてください

85 :undefined:2015/02/19(木) 11:23:20.97 ID:aqLRWkl1.net
質問☆
cudaってドライバインストして、画像表示をcuda設定にするだけでは
効果ない?

86 :デフォルトの名無しさん:2015/02/19(木) 14:30:54.02 ID:iKdaAUCi.net
>>84
FP32とFP64の一覧表ならこれとか。
ttp://www.geeks3d.com/20140305/amd-radeon-and-nvidia-geforce-fp32-fp64-gflops-table-computing/

ボトルネックになりうる点は他にもあるから、Compute Capability毎の仕様の違いも結構重要だと思う。

87 :デフォルトの名無しさん:2015/02/19(木) 23:45:36.57 ID:ngPIgbTR.net
maxwellさん自体にに倍精度が無いようだから
一世代前のkeplerさんか次世代のpascalさんを選べば良いんじゃないかな

88 :デフォルトの名無しさん:2015/02/19(木) 23:54:19.28 ID:Lt8lBsrZ.net
>>86
有難う。750TiのFP64悪すぎだな。
なんか大衆向け用でGPGPUするならFP32よ、FP64は使わないでだな。

89 :デフォルトの名無しさん:2015/02/20(金) 04:05:21.12 ID:fPdGyDpl.net
>>87
KeplerはMaxwell以上にピーキーだったような。
自分の用途がはっきりしていて、それがKeplerやMaxwellに向いているならありだろうけど。
64bit変数をほとんど使わなくても、不向きな処理ではGTX 680が570に惨敗したりする。

CUDAの開発環境とか情報量に魅力を感じて、あえて今から始めてみるという人に勧めるとすれば、個人的には
投げ売り続行中のGTX 570や580で、余裕があるなら型落ちCPU・マザボ・メモリのセット等と
組み合わせてCUDA専用マシンを用意かな。

>>88
それは差別化とか、グラフィック用途でのワットパフォーマンスとかで仕方がないかと。

90 :デフォルトの名無しさん:2015/02/20(金) 08:52:57.87 ID:xG3c1huj.net
keplerはinteger bit shiftが弱いGK110(tesla)以外は
maxwellはkepler比で2倍のスループットになってる

91 :デフォルトの名無しさん:2015/03/04(水) 22:02:58.94 ID:krHDLIbc3
コアレッシングて、なんでハーフワープじゃないとダメなのでありますか?
フルじゃダメなのでしょうか。
#deviceQuery:
# CUDA Capability Major/Minor version number: 3.2
# Warp size: 32

92 :デフォルトの名無しさん:2015/02/22(日) 18:45:23.46 ID:JhGx5uct.net
適当なプログラム作ってみても
maxwellの方がはやいね

shared memoryが倍になったのも大きいなぁ

93 :名無し:2015/03/07(土) 10:52:38.85 ID:UBzBpgz5.net
スレチなら申し訳ない
当方、モバイルでCUDAを使用したいけど
安い方法はどれが良いと思います?
(速度はそこそこで良く、外でテストして
 パワーがいる場合はデスクトップを使用するつもり)

モバイル用は安く上げたいので
Chromebookかタブレットで探した方が良いですかね?
奇をてらってJetsonのtk1にACアダプタ用のバッテリーを積むとか
(可能かどうかわからないですが)
ちなみにゲームはやるつもりありません。

94 :デフォルトの名無しさん:2015/03/07(土) 20:42:36.10 ID:CzdLWIdo.net
thinkpad w550sのquadro K620mはダメなの?
ノートパソコンだよ

95 :デフォルトの名無しさん:2015/03/08(日) 10:25:35.13 ID:TYY6zzsE.net
レスありがとうございます
安くあげたいので予算的に厳しいかと
最初だけ計算量は多いですけど
要所ごとに定数化すれば、その後は計算量がへるかと思っているので外での使用は少ないデータ量でプログラムチェックができればいいかなと考えています。
K1がのったタブレットも安いのでそこから考えてみようと思います
ありがとうございました

96 :デフォルトの名無しさん:2015/03/18(水) 02:36:15.45 ID:jKTvW/7W.net
うわ、titan xの倍精度、しょぼ過ぎ・・・。
https://twitter.com/search?q=titan%20x&src=typd

97 :デフォルトの名無しさん:2015/03/18(水) 09:22:22.19 ID:33RtPIwm.net
単精度が7TFLOPS、倍精度が0.2TFLOPSで良いんだよな??

詳しい事は良く分からないんだけど倍精度ってそんなに使わないものなの?
PhysXっていう物理エンジン使ったりするのに

98 :デフォルトの名無しさん:2015/03/18(水) 10:23:22.30 ID:C11qPS4w.net
>>97
ゲームだと単精度で十分だったりするからじゃない?
もともとゲームのために作られたような物だから、倍精度の性能なんかあまりこだわってないと思う

99 :デフォルトの名無しさん:2015/03/19(木) 07:37:41.52 ID:M0RYJxHF.net
https://developer.nvidia.com/cuda-downloads
CUDA 7 Downloads

100 :デフォルトの名無しさん:2015/03/19(木) 07:39:40.96 ID:M0RYJxHF.net
Dear Developer,

The CUDA? 7.0 Production Release is now available to the public. Run your application faster with this latest version of the CUDA Toolkit. It features 64-bit ARM support and the simplified programming model enabled by Unified Memory. Highlights include:

New cuSOLVER library
? Accelerates key LAPACK routines, 12x faster direct sparse solvers

New C++11 language features
? Increases productivity with lambdas, auto, and more

Runtime Compilation
? Enables highly optimized kernels to be generated at runtime

Download the CUDA 7 Production Release at www.nvidia.com/getcuda

Learn more about CUDA 7 by attending these webinars:

CUDA 7 Feature Review
Date/Time: Friday, April 10th at 10:00 AM PDT
Register: https://cc.readytalk.com/r/4b0lwgeqgzrk&eom

CUDA 7 Performance Overview

Date/Time: Wednesday, April 15th at 11:30 AM PDT
Register: https://cc.readytalk.com/r/empyu1qc65l6&eom

Best regards,

Nadeem Mohammad
NVIDIA Developer Relations Team

101 :デフォルトの名無しさん:2015/03/24(火) 05:27:05.96 ID:7oVKj7vD.net
CUDAがgcc4.8でうまく動かない問題ってもう解決したの?

102 :デフォルトの名無しさん:2015/03/25(水) 15:16:29.51 ID:9JMqB0KU.net
うん

103 :デフォルトの名無しさん:2015/03/25(水) 21:19:25.13 ID:WRhchtaz.net
Driver API使ってコンパイル済みのptxを実行するプログラムを作ろうとしているんだけど、
64bitのホストコードから32bitのptxを実行することってできるんだっけ?

104 :デフォルトの名無しさん:2015/04/10(金) 02:15:05.70 ID:C60yUXFO.net
nvidia-smiでutilizationやmemory usageを確認できると思うのですが、全てのパラメータを確認できるのはtesla、quadro、Titanです。
Geforce系のGPUで、utilization、各プロセスのmemory usage等を確認するにはどうすればいいでしょうか?

105 :デフォルトの名無しさん:2015/04/10(金) 07:26:02.69 ID:nzpIVsUT.net
>>104
nvapi
http://masafumi.cocolog-nifty.com/masafumis_diary/2008/09/nvapi.html

106 :デフォルトの名無しさん:2015/04/12(日) 23:53:21.24 ID:g4+PudFo.net
古いGeforceでもOpenCL1.1のプログラムなら動くのでしょうか

107 :デフォルトの名無しさん:2015/04/13(月) 00:39:39.73 ID:NPPeHBbv.net
少なくともCUDA対応している必要があるが、基本的にGeForce8シリーズ以降で動くはず。
特定の機種について知りたいならGeeks3Dのデータベース検索してみるとか。
しかしスレチ。

108 :デフォルトの名無しさん:2015/04/13(月) 16:29:29.85 ID:EBHbrztF.net
thinkpadに入ってるquadro K620Mはcudaのサポート無いんだな
インストールしようとしてワラタ

109 :デフォルトの名無しさん:2015/04/14(火) 18:39:28.21 ID:hgZdA2dw.net
Linux(CentOS6)の環境でTITAN BLACKでCUDA(Ver.6.5 or 7.0)使ってるのだけど、計算走らせると
NVIDIA X Server SettingsのPerformance LevelsのLevelが3から2に落ちてMemory Transfer Rateが7000Mhzから6000Mhzに落ちてしまう。
で結果的にノーマルTITANと性能が同じになってしまう。このメモリクロックを固定させることはできませんかね?
ちなみにTelsa K20 での固定クロックの方法はnvidia-smiがTITANに対応してないらしくできなかった。
ちなみにPreferred Modeは「Prefer Maxmum Performance」になっていて、
CUDAで計算しなければLevel3でメモリクロックも7000Mhzとなっています。

110 :デフォルトの名無しさん:2015/04/14(火) 21:44:04.71 ID:frAktQrJ.net
空冷を見直す。

111 :デフォルトの名無しさん:2015/04/15(水) 11:49:47.50 ID:DmeNPmdM.net
>>109
何時間もフルで使ってるならまだしも、GPU叩いた瞬間に7000Mhzから6000Mhzに落ちるって、TITAN BLACKの公称メモリクロック「7GHz」ってのは詐欺にならないか?
これじゃノーマルTITANと同じ性能・・・

112 :デフォルトの名無しさん:2015/04/15(水) 23:05:57.76 ID:+7B/lj1n.net
環境がわからんからなんとも言えんが、
どうしても固定したければどっかからbiosを引っ張ってくるしかないね。

113 :デフォルトの名無しさん:2015/04/16(木) 13:27:15.95 ID:xeug049T.net
ん?TITANのクロック制御はマザーのBIOSが管理してるのか?

114 :デフォルトの名無しさん:2015/04/16(木) 14:34:33.50 ID:PYEjJT3R.net
VGAボード側のだよ。

115 :デフォルトの名無しさん:2015/04/20(月) 17:42:38.58 ID:uqjf4eEG3
>109

とりあえず自己解決
CUDA7のドライバーをそのまま使うとLevel3の7000MhzからLevel2の6000Mhzに落ちる。
Ver.6.5もVer.6.0のもの同様。
で、CUDA様でない少し古いドライバーを使うと、Level3が7000Mhzで設定され、Level2も7000Mhzのままのものがある。
それを何とかCUDAで使えるようにして、7000Mhzのままで計算できるようになった。

116 :デフォルトの名無しさん:2015/04/23(木) 12:42:01.23 ID:GK/TBYtY.net
pycudaで既存のコンパイル済みのオブジェクトとリンクして
実行させるにはどうすればいいのでしょうか

117 :デフォルトの名無しさん:2015/04/23(木) 18:12:10.80 ID:GK/TBYtY.net
cmakeの自動configがGTX900シリーズなのにsm_20とか言ってくるのなんとかならないの?

118 :デフォルトの名無しさん:2015/04/27(月) 00:54:11.64 ID:XOkfLgXW.net
最近のマザーボードってビデオカード2枚刺して
両方に計算させることもできるの?
自分のcore2duoのパソコンだと1つしか刺す場所ないけど
最近のddr4を使うマザーみると
それらしき場所が3つぐらいあるから3並列計算できるってことかな?

119 :デフォルトの名無しさん:2015/04/29(水) 08:43:39.45 ID:2J/vCqrD.net
>>118
場合によっては、計算用のGPUと出力用のGPUで分けてたりする。少なくともNVIDIAはそういう方針

120 :デフォルトの名無しさん:2015/04/30(木) 22:40:28.09 ID:4E7PVA8Y.net
vexclのサンプルコードをcudaでコンパイルしようとしてるんだけど
エラーだらけ
何か依存パッケージが足りないのかな?

121 :デフォルトの名無しさん:2015/04/30(木) 22:46:37.84 ID:4E7PVA8Y.net
.bashrcに設定する変数名が
CUDA_PATH
だったり
CUDA_ROOT
だったりみんな違う

なんで統一しないのか

122 :デフォルトの名無しさん:2015/05/07(木) 18:56:17.28 ID:oEZIeMhu.net
vexclについてくるexampleプログラムの中のベンチマークってプログラムが面白い
このプログラムのベンチマークによると
GT430とかいう古いビデオカードなのに最近のCPUの10倍の計算速度でてる

123 :デフォルトの名無しさん:2015/05/08(金) 17:34:25.55 ID:8Z+VlnlSM
質問です。
Jetson TK1ってGPUは3.x世代だと思うんですが、
CUDA7/cuDNN(GTC2015で発表のあった正式版)には対応してないのでしょうか?
TK1はKepler世代なので大丈夫だと思ったのですが・・・。

124 :101:2015/05/13(水) 12:03:41.64 ID:3UCLt7KQ.net
thinkpad w550sのquadroでもcudaなんも問題なかった
やっと勉強できる

125 :デフォルトの名無しさん:2015/05/13(水) 19:42:38.26 ID:SKtXN3hT.net
3D映像でパストレーシングやモンテカルロ法を行いたい場合、光線とシーン中
のあらゆるポリゴンとの交差を判定し、条件分岐を行う必要があります。
しかし、GPGPUは条件分岐が遅いらしいので、もしかするとCPUと役割分担を
行うべきなのでしょうか?
例えば、シーン中のポリゴンとの交差判定はCPUでやった方が良いとか?

126 :デフォルトの名無しさん:2015/05/13(水) 23:31:21.84 ID:xMqj1fKt.net
if
  A
else
  B
end
のような文なら、AとBは逐次の処理になる

if
  A
end
なら、Aを行わないスレッドは待つだけだから問題ない

もし3項演算で解決できる条件分岐なら3項演算子を用いて書く

127 :デフォルトの名無しさん:2015/05/14(木) 07:59:10.95 ID:CyZl9DuQ.net
>>126
>AとBは逐次の処理になる

これはどういう意味でしょう?
AとBが内部的には必ず両方とも実行されてしまうと言うことでしょうか?

128 :デフォルトの名無しさん:2015/05/14(木) 09:14:40.23 ID:CyZl9DuQ.net
Intel系CPUの場合、確か cmov などという命令は、bool 値が1の時だけ
転送するのだったと思います。そういう命令は無いんでしょうか?
仮に何かあったとして、CUDA や OpenCL でどうやってそのような
「専用命令」を生成する事は可能でしょうか?

129 :デフォルトの名無しさん:2015/05/15(金) 01:05:26.23 ID:WYo5pZkW.net
分岐命令の代わりに使えるプレディケート付き命令があるかという話なら
それは存在するし、分岐のあるコードではコンパイラさんがよしなにやってくれる。
と、ヘネパタ本には書いてあった。

130 :デフォルトの名無しさん:2015/05/15(金) 08:19:31.91 ID:pyCNH+0F.net
>>129
ありがとうございます。

では、「>>127」の方はどうですか?

131 :デフォルトの名無しさん:2015/05/15(金) 09:39:10.09 ID:mDU8aVUi.net
>>130
warp divergenceの話じゃないの?

132 :デフォルトの名無しさん:2015/05/15(金) 15:58:50.84 ID:pyCNH+0F.net
>>131
習慣的に(?)「ウォープ・ダイバージェンス」と読み、

http://news.mynavi.jp/special/2008/cuda/001.html

のことのようですね。

133 :デフォルトの名無しさん:2015/05/17(日) 10:18:02.33 ID:R3tkd0Ad.net
>>130
AとB両方実行されるよ

134 :デフォルトの名無しさん:2015/05/19(火) 21:33:47.52 ID:spimwXxa.net
今まで一つのソースファイルで書いてきたのですが、いい加減見づらくなってきたのでソースファイルを分けてみたところエラーがでたので質問させてください
extern __constant__ unsigned short v[n]; //nは#defineで定義しています。
メインのソースファイルで
__constant__ unsigned short v[n];
と定義し、ビルドすると「メインの方で再定義されている」というエラーが出てしまいます

他にも、__device__ double atomicAdd の定義をサブのソースファイルに書くと
ptxas fatal : Unresolved extern function '_Z9atomicAddPdd'
とエラーが出てしまいます。どうか解決方法を教えてください。

環境は
NVIDIA Nsight Visual Studio Edition v.4.2
CUDA 7.0 Toolkit
のはずです

135 :125:2015/05/19(火) 21:42:34.97 ID:spimwXxa.net
×CUDA 7.0
○CUDA 6.5
でした

136 :125:2015/05/20(水) 16:28:14.38 ID:MP+tATlH.net
CUDA5.0以降ではrdcを「はい」にするとファイルの分割が出来るという情報を得たのでさっそく試してみたところ
>>134のエラーは無くなったのですが
1>sub.cu.obj : error LNK2005: "long __cdecl genrand_int31(void)" (?genrand_int31@@YAJXZ) は既に main.cu.obj で定義されています。
上記のような二重定義エラーがいくつか出てきました

また、ヘッダファイルの拡張子を.cuhとしている方を見かけたのですが、.hとの違いはあるのでしょうか?

137 :デフォルトの名無しさん:2015/05/20(水) 22:26:00.46 ID:tQNdJIhT.net
デバイス関数ってインライン展開されるんじゃなかったっけ。
でもって、他のファイルからは使えなかったのでは?

138 :125:2015/05/20(水) 23:53:16.57 ID:MP+tATlH.net
>>137
ファイルを分割出来ないとなるとすごく不便になので、何かしらの方法があるのでは?と思っています

139 :デフォルトの名無しさん:2015/05/21(木) 04:25:30.08 ID:Dige6mTv.net
とりあえずCUDAの日本語wikiがあるから、そこの分割コンパイルの項目をみたらどうかな?
OSによっては解決できるかも

140 :デフォルトの名無しさん:2015/05/21(木) 09:09:27.02 ID:BxelVpyp.net
cuファイルをcuファイルにインクルードしてみるとか。

141 :125:2015/05/21(木) 17:23:47.43 ID:25nDpRt2.net
レスありがとうございます

どうやら>>136のエラーはCUDAとは関係なさそうなのでC++のスレで聞いてきます

142 :125:2015/05/24(日) 22:10:36.84 ID:FupD4mQN.net
>>136の方法で分割コンパイルに一応成功しました!
一応と言ったのはrdcを「はい」にした場合と「いいえ」にした場合とでプログラムの挙動が少し変わってしまうのです
今書いているプログラムは何億回もの計算結果を足し合わせていくものなので、誤差の蓄積による影響を受けていると思います
コンパイルの方法を変えた(?)事で誤差の蓄積が変化(?)し、プログラムの挙動が変わったということなのでしょうか?
コンパイルと誤差がどう関係するのかは分かりませんが

143 :125:2015/05/24(日) 22:19:49.55 ID:FupD4mQN.net
>>「はい」にした場合と「いいえ」にした場合
ファイルを分割するともちろん「いいえ」では動かないので、一つのファイルで完結しているプログラムでの話です

144 :デフォルトの名無しさん:2015/05/26(火) 06:54:20.42 ID:VVQAbCqm.net
最適化の仕方が変わるのかもね
誤差が出て困るなら、なるべく誤差が少なくなるような組み方を考えるしかない

145 :デフォルトの名無しさん:2015/05/26(火) 07:49:49.21 ID:3GnQrGbV.net
誤差にも種類があるが・・・
浮動小数点演算等の誤差なのか
同期ミスによる誤差なのか・・・

146 :デフォルトの名無しさん:2015/05/26(火) 22:03:46.38 ID:f2qMZr+T.net
>>144
かもね
今はatomicAddをそのまま使っているので、情報落ちをなんとかして誤差は減らす予定です

>>145
原因と結果の関係性が分からないのでなんとも言えないです
ちなみに同期ミスによる誤差とは何でしょうか?

147 :デフォルトの名無しさん:2015/05/26(火) 22:55:29.89 ID:sIi3toQP.net
つうか最適化で結果が変わったら
それはバグ以外に無いけどねえ。

148 :デフォルトの名無しさん:2015/06/03(水) 15:26:06.85 ID:f+QtTKYD.net
http://www.geeks3d.com/20140305/amd-radeon-and-nvidia-geforce-fp32-fp64-gflops-table-computing/
だれかこれの最新版を知らんかえ?

149 :デフォルトの名無しさん:2015/06/17(水) 22:35:16.09 ID:uTokHIG4.net
今年はGTC Japan開催のリリース出ないな
例年ならもう出ているのに
中止かもしくは時期がずれたのかな

150 :デフォルトの名無しさん:2015/06/18(木) 12:56:34.78 ID:0ZPzSsHT.net
>>149
今年は9月18日に虎ノ門ヒルズで開催、だったかと。

151 :デフォルトの名無しさん:2015/06/18(木) 13:04:11.34 ID:9mEYqdNq.net
Visual studioでCUDAプログラムを作成しています
Nsightでstart CUDA debuggingからプログラムを走らせた時だけプログラムが動かないんですが
どのような原因が考えられますか?

以下の条件ではすべて正常に動作・終了します
デバッグなしで開始(debug,release共に)
start CUDA debuggingでブレイクポイントを仕掛けて1スレッドずつ動かす

152 :142:2015/06/18(木) 13:16:06.49 ID:9mEYqdNq.net
追加です
プログラムの詳細ですが
ある無向グラフに対して,与えられた2点が連結かどうか調べるプログラム
枝重み0と仮定してダイクストラのアルゴリズムを用いて判定しています.

1ブロックにつき16スレッドが同時に走ります.
その判定関数をfoo()とすると

if( blockIdx.x == tmp )
foo();
というように一つのブロックのみで扱うようにすると
tmpがどのような値でも正常に動作するのですが
2ブロック以上でfooに行くようにすると動かなくなります
エラーがでないことと,printfによるチェックですが
配列のアドレスも問題ありません

153 :デフォルトの名無しさん:2015/06/19(金) 21:29:02.20 ID:tQGft1o9.net
>>152
何かスレッドの実行順序に依存した処理があるか、排他が必要な競合でもあるんじゃね?

154 :デフォルトの名無しさん:2015/06/19(金) 22:01:43.75 ID:FLqfhWNF.net
>>150情報感謝です

155 :デフォルトの名無しさん:2015/06/22(月) 21:23:14.11 ID:FYteK6ai.net
デバイスメモリの内容を一時的にホスト側からアクセスしたいんですが、OpenCLでいう
clEnqueueMapBufferに相当する機能はCUDAにあるんでしょうか?
ちょっと調べてみたんですが、cudaHostRegisterは方向が逆だし、cudaMallocManagedは
既にあるデバイスメモリにアクセスするものではなさそうなので。
cudaMemcpyで読み出して終わったらまた書き出すという方法しかないんでしょうか。

156 :デフォルトの名無しさん:2015/06/23(火) 13:14:37.10 ID:DUXK3D31.net
OpenCLを知らないので外してるかも知れないけど、
基本的にはcudamemcpyするしかない。

CUDA6.0からUnified Memoryっていう機能が入って、
GPU上のメモリをホストメモリと同じように読めて、
自動的に同期を取ってくれる機能。用途によっては使えるかも。

157 :デフォルトの名無しさん:2015/06/24(水) 08:02:13.81 ID:wFw+UOzE.net
>>156
ありがとう。やっぱりcudaMemcpyするしかないのか。

158 :デフォルトの名無しさん:2015/06/25(木) 22:41:21.74 ID:t3bjYB8L.net
今日はじめてCUDAを入れた者ですが、VS2013でサンプルをビルドするとerror MSB3721…\simpleTemplates.cu"" はコード 1 で終了しました
って出るんだが何か設定とか必要ですか?

あとインストールの確認(?)でコマンドプロンプトでnvcc -Vのコマンド入れてもアクセスが拒否されましたと出る…
これが原因ですかね?

いろいろ調べてみましたが、これといった解決方法はなかったので助けて下さい。
よろしくお願いします。

159 :149:2015/06/25(木) 23:09:29.97 ID:t3bjYB8L.net
>>158です。
すいません自己解決いたしました。
ウィルスソフトが邪魔をしていたようです・・・
スレ汚し申し訳ございませんでした。

160 :デフォルトの名無しさん:2015/06/26(金) 01:26:56.82 ID:f2ddT7MK.net
750Tiってあんまりいけてないのか…
CUDA試したくてあんまり調べずに衝動買いしてしまった
900台にした方が良かったのかなあ

161 :デフォルトの名無しさん:2015/06/26(金) 08:33:52.91 ID:h0LNB3lK.net
ゲームするならかなりいけてるが倍精度はしょぼいな
倍精度が欲しいならfermiかgk110コアのがいいのか?
ゲームしないならamdでopenCLの方がコスパ良さそうなんだがどうなの?

162 :デフォルトの名無しさん:2015/06/26(金) 09:30:43.08 ID:gBS6mhz7.net
>>159
ちゃんとアンチウイルス入れておけよ。

163 :デフォルトの名無しさん:2015/06/26(金) 11:48:22.16 ID:JVzNXP51.net
CUDA7入れたのですが、
cublas.hが見つからないと出てしまいました。

cublas使うには他に何か必要なのでしょうか?

164 :デフォルトの名無しさん:2015/06/26(金) 12:57:38.26 ID:1v0mrakI.net
>>163
C:> dir /s /b "%CUDA_PATH%\cublas.h"
C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v7.0\include\cublas.h

165 :デフォルトの名無しさん:2015/06/26(金) 13:07:12.91 ID:JVzNXP51.net
ありがとうございます。
みつかりました

166 :デフォルトの名無しさん:2015/06/26(金) 23:47:30.95 ID:f2ddT7MK.net
>>161
>ゲームするならかなりいけてる

こういうのがイマイチよくわかりません
単純にFLOPSで性能を見ちゃいけないのでしょうか
ゲームやGPUプログラミングに向いてるかどうかってどうやって判断してるんでしょうか

167 :デフォルトの名無しさん:2015/06/27(土) 03:38:35.85 ID:y7j5+l1E.net
>>166
プロはGPGPUするのにゲーム用のGFやRadeonをはあんまり使わない
趣味レベルでOKのGPGPUならGPGPUがオマケであるゲーム用(ゲームドライバ)のVGAでも良いが。
Xeonが一般的な業務サーバーに普通のデスクトップPCをいっぱい使うなことは
しないのと同じ。あと、FLOPSは目的のGPGPUするのに必要なレベルあれあば良い。
低FLOPSでOKなGPGPU処理に超高FLOPSのものを使うって趣味だし

168 :デフォルトの名無しさん:2015/06/27(土) 09:17:14.69 ID:f1QkQQtg.net
プロだってコスパ考えるだろ。
倍精度演算性能と信頼性で妥協できるならゲーム用GPUの方が圧倒的に安いしな。

169 :,,・´∀`・,,)っ-○○○:2015/06/27(土) 23:23:04.05 ID:XHzW5ECE.net
まあ中国の天河1号はFireStreamですらないRadeonのデュアルGPUカードを大量搭載したが
結局実用にならなくて次の更新で全部Teslaに差し替えたからね
額面のFLOPS数だけで実用性は評価できない

170 :デフォルトの名無しさん:2015/06/28(日) 09:51:05.56 ID:MpgQMMEq.net
中国はスパコンにTESLAとか使えなくなったから、NVIDIAやインテルは大口顧客を失った。

171 :デフォルトの名無しさん:2015/06/28(日) 16:33:48.10 ID:zku7pwa+.net
>NVIDIAやインテルは大口顧客を失った。
その損失分は米国内の大型スパコンでの便宜をはかることで補填されてるから企業としては差し引きOKとなったはず

172 :デフォルトの名無しさん:2015/06/29(月) 08:06:36.49 ID:FIYCVjDt.net
windows7でchainer試そうとすると
pycudaでなんか不具合出る

173 :デフォルトの名無しさん:2015/06/29(月) 08:13:35.83 ID:FIYCVjDt.net
>>160

そうでもない
http://studylog.hateblo.jp/entry/2015/06/26/210516

174 :デフォルトの名無しさん:2015/06/29(月) 09:25:13.60 ID:uPSGGZxo.net
並列計算でGTX780Ti使ってるんだけどGTX980Tiにしたら倍精度の計算って遅くなる?

175 :デフォルトの名無しさん:2015/06/30(火) 16:00:18.94 ID:vWTsPJO/.net
cudaってMFCのcppから呼べますか?
サンプルで.cuから.cppを呼んでるのは見つけたんですが。

176 :デフォルトの名無しさん:2015/06/30(火) 17:26:54.94 ID:vWTsPJO/.net
あーexternで呼べました

177 :デフォルトの名無しさん:2015/07/02(木) 01:47:05.99 ID:cql5ELb9.net
>>174
単精度演算性能 コア数×クロック数×2
倍精度演算性能 単精度演算性能/24(Kepler), 単精度演算性能/32(Maxwell)
として計算すると、
780Tiが2880×875×2/24=205GFLOPS
980Tiが2816×1000×2/32=172GLOPS
だから、遅くなるんじゃね?

178 :デフォルトの名無しさん:2015/07/02(木) 15:34:36.77 ID:bfg1NSwR.net
CUDAって仕様上できないこともコンパイルとおるのか〜

179 :デフォルトの名無しさん:2015/07/02(木) 23:26:03.68 ID:Pfy0Io9G.net
Nvはゲームにゲーム用VGAには倍精度演算イラネから省くって流れだから
ゲーム用VGAで倍精度演算性能ほしいならRadeにしたほうがいいよな

180 :デフォルトの名無しさん:2015/07/03(金) 14:37:16.26 ID:WUZUNux9.net
>>177
ありがとう
Teslaは高くて買えないからPascalまで待つか

181 :デフォルトの名無しさん:2015/07/03(金) 23:30:48.50 ID:dkeXuonA.net
TITANヤフオクで探すのはどうでしょ

182 :デフォルトの名無しさん:2015/07/05(日) 22:31:36.27 ID:tW1t1zZP.net
全く値段見ないでカンで言うけど
中古の無印TITANならウンコに混じったコーン位の値段で売ってんじゃないの?

183 :デフォルトの名無しさん:2015/07/07(火) 16:43:12.64 ID:y9jINuhY.net
CULAのエラーでpos 1022ってなんですか?

LAPACKドキュメントを見よとか書いてありますが、見当たりません

184 :デフォルトの名無しさん:2015/07/08(水) 10:49:51.33 ID:UJb9gmN3.net
CUDA7.5 RC

185 :デフォルトの名無しさん:2015/07/08(水) 20:10:01.47 ID:h2HOA+i0.net
最近始めたんだけどversionって無理して最新にする必要無いのかな
7入れるのに結構苦労したんであんまり変えたくない
みなさんはガンガン上げてく感じですか?

186 :デフォルトの名無しさん:2015/07/08(水) 20:20:41.59 ID:QsV0kvB4.net
共存できるやん

187 :デフォルトの名無しさん:2015/07/11(土) 13:57:32.12 ID:QRzfcgY3.net
困らなければ基本的に更新とかはしないと思うけど…

188 :デフォルトの名無しさん:2015/07/13(月) 01:32:34.78 ID:BK2wG7MT.net
でも最新のほうが速くなったりするかもしれないし

189 :デフォルトの名無しさん:2015/07/27(月) 20:50:16.33 ID:0YcBUgDv.net
分割コンパイルができないんだけど、どうしたらいいんだろ?
ビルドどころか1ファイルのコンパイルもエラーになる

vs2013ce, cuda7.0, fermi, debug,x64

D:\cuda_test\cuda_test>
"C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v7.0\bin\nvcc.exe"
-gencode=arch=compute_20,code=\"sm_20,compute_20\" --use-local-env --cl-version 2013
-ccbin "C:\Program Files (x86)\Microsoft Visual Studio 12.0\VC\bin\x86_amd64" -rdc=true
-I"C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v7.0\lib\x64"
-I"C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v7.0\include"
-I"C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v7.0\include"
-G --keep-dir x64\Debug -maxrregcount=0 --machine 64
--compile -cudart static -g -DWIN32 -DWIN64 -D_DEBUG -D_CONSOLE -D_UNICODE -DUNICODE
-Xcompiler "/EHsc /W3 /nologo /Od /Zi /RTC1 /MDd "/wd 4819""
-o x64\Debug\cuda_body.cu.obj "D:\cuda_test\cuda_test\cuda_body.cu"

1> nvcc fatal : A single input file is required for a non-link phase when an outputfile is specified

190 :デフォルトの名無しさん:2015/07/27(月) 20:55:02.52 ID:0YcBUgDv.net
nvcc fatal : A single input file is required for a non-link phase when an outputfile is specified
コンパイルフェーズで出力ファイル指定するときは1ファイルでやれっていうけど、出力ファイル指定しないと何にも出力されないし、
cuda5.0以降は分割コンパイルは対応してるよね? rdcもdlinkも指定してるし何がいけないんだ

191 :デフォルトの名無しさん:2015/08/02(日) 15:01:41.54 ID:LFE7g0os.net
別にCUDAじゃなくても良いんですが、
GPUで直接JPEGを、DirectXのテクスチャに展開して、そのまま表示したいです。
そういったライブラリって無いですか?
かなり需要がありそうなんですが

192 :デフォルトの名無しさん:2015/09/07(月) 00:27:30.12 ID:nK71AIt7.net
ヘッダファイルで定義した定数は__device__内では使えないのでしょうか?

193 :183:2015/09/08(火) 02:08:23.68 ID:V+WRCKAL.net
少し分かったことがありました
グローバルで
const int i = 1;
const double d = 1;
と定義すると
__device__内でiは使えてdは使えませんでした
error: identifier "d" is undefined in device code
とエラーが出てしまいます
どうしてdouble型だとエラーになるのでしょうか?

194 :デフォルトの名無しさん:2015/09/11(金) 23:39:48.38 ID:myHMFCwl.net
floatやlongは?

195 :デフォルトの名無しさん:2015/09/14(月) 22:17:35.79 ID:2IqUP8/H.net
floatはダメでlong intはOK
だめならだめで引数とすれば良いんですけどね
整数だけというのはcudaの仕様ですかね?

196 :デフォルトの名無しさん:2015/09/15(火) 09:01:24.15 ID:10B5WSYL.net
なんでだろうな。全く調べていないので100%想像だけど、
GPU上にstatic変数が確保されているとは思えないから、
(無いとは言い切れないが)
コンパイル時に定数展開しているんだろうな。
C++の言語仕様としてconst intは定数展開していいし、
(厳密な言い方だと間違いかもしれん)
クラスのstaticメンバにしても宣言のみで定義が不要ってのがあるから、
それに則った処理なんじゃなかろうか。

197 :デフォルトの名無しさん:2015/09/15(火) 14:26:04.38 ID:8ArN6+Sd.net
Visual Studioでエラーでた
似たような状況の人いたら教えてほしいです

環境
CPU core i5 4570
GPU GTX 980

Visual Studio 2010 Ultimate
CUDA v7.0
NSIGHT v5.0
使用言語はC
エラーが起こる状況↓
__device__ function1(){
int array1[ 1000 ];
function2( array1 );
}
__device__ function2( int *array1 ){
int array2[ 1000 ];
for( int k = 0 ; k < 1000 ; k++ ){
array1[ k ] = rand(); // rand()は何らかの乱数を返す関数
array2[ k ] = rand();
}
}
function1を呼び出したとき,時折だがarray1の値がarray2の値と同じになってしまう
エラーが起きた状況で以下のことは確認済み
・array1,2ともにグローバルメモリに確保されている
・array1とarray2のポインタは異なっている
・rand()が異なる値を返している
また,array2の宣言をfunction1で行い,function2にarray2のポインタを返すことで回避ができる

198 :デフォルトの名無しさん:2015/09/15(火) 14:29:46.25 ID:JgRUCOJR.net
全然知らんけど、スタックオーバーフローじゃね?
static int array2[1000];にすれば解決

199 :GPU太郎:2015/09/16(水) 01:21:13.95 ID:6Rc88cmlK
>>179
>Nvはゲームにゲーム用VGAには倍精度演算イラネから省くって流れだか

結局その理由は、PS4/XBoxONEにGCN世代GPUを獲られたからだ
つまり言葉は悪いが「ゲーム機は(DX12世代を見据えた)実験台」
とAMDは割り切っていた

そのためにGPGPU市場を見据えた大胆な実験を特にPS4で実行している
PCもその流れを受けて、これから海外パブリッシャーがどんどん超大作をそちらに合わせて出していく

これからは、AMDのFirePROにシフトするべき

200 :デフォルトの名無しさん:2015/09/17(木) 00:01:30.77 ID:6wQsOGVx.net
>>193
device修飾してないだけとか馬鹿なおちはないよな?

201 :デフォルトの名無しさん:2015/09/27(日) 11:58:09.30 ID:X6SDQWu/.net
VS2013 cuda7.0で
intelisenseがcudaの関数やthreadIdxなんかに赤線つけるんだけど
intelisenseを無効化させる方法ではなく、対応させられない?

202 :デフォルトの名無しさん:2015/09/29(火) 16:27:34.89 ID:++1fLQj6.net
CUDAって余計な決まり事が多くてGLSLよりわかりにくくなってると思うんだけど

203 :デフォルトの名無しさん:2015/09/30(水) 06:44:35.73 ID:OmftLuOo.net
>>201
#include<device_launch_parameters.h>
で消えない?

204 :デフォルトの名無しさん:2015/10/01(木) 00:53:18.68 ID:44xt2+tf.net
cuda_header.hに以下をまとめて、これを.cuでインクルードしてるんだけど、インテリセンスがエラーとして表示したままなんだ。
また従来のcutil系の代わりのhelper関数のヘッダが開けないともなぜか出る。(プロジェクトの追加のインクルードDirには指定してあるんだが・・)
でもコンパイルはされるんだよ・・・。インテリセンスのキャッシュクリアしようと考えたんだが2013のメニューにはないみたいだし・・。

#include <cuda.h>
#include <cuda_runtime.h>
#include <device_launch_parameters.h>
#include <device_functions.h>
#include <math_constants.h>

#include <helper_cuda.h>
#include <helper_math.h>

205 :デフォルトの名無しさん:2015/11/11(水) 20:12:32.44 ID:1VxiIponn
超初歩的な質問ですがよろしければお願いします
環境 windows7 64bit Visual Studio 2013 community CUDA7.5
CUDAインストール時にはVS2013をインストール済みと判定するものの
コマンドプロンプトからnvccでサンプルを実行させると
nvcc fatal  : nvcc cannot find a supported version of microsoft visual studio
とエラーが発生します
パスなどの設定の問題なのでしょうか?

206 :デフォルトの名無しさん:2015/11/11(水) 20:55:36.03 ID:FAkUvGGr.net
超初歩的な質問ですがよろしければお願いします
環境 windows7 64bit Visual Studio 2013 community CUDA7.5
CUDAインストール時にはVS2013をインストール済みと判定するものの
コマンドプロンプトからnvccでサンプルを実行させると
nvcc fatal : nvcc cannot find a supported version of microsoft visual studio
とエラーが発生します
パスなどの設定の問題なのでしょうか?

207 :デフォルトの名無しさん:2015/11/11(水) 22:32:08.88 ID:kzShUi9X.net
コマンドプロンプトからcl.exe叩くのと同じだろう。
VSの開発者コマンドプロンプトからやってみれば?

208 :デフォルトの名無しさん:2015/11/12(木) 06:18:25.24 ID:oFlt1n6m.net
Communityでもいけるんだ?
少し前に断念してProにした記憶がある

209 :デフォルトの名無しさん:2015/11/16(月) 00:30:41.16 ID:wFEoXPFZ.net
質問です
OpenGLとCUDAを使って流体のシミュレーションをしようと考えています
OpenGLの描画とCUDAの計算を別スレッドで行ってCUDAの計算の完了を待たずに描画をしようとするとプログラムが落ちてしまいます
そもそもこういう使い方は間違いですか?
GPUを二つ使わないと不可能なのでしょうか?

210 :デフォルトの名無しさん:2015/11/16(月) 04:31:20.12 ID:yRzaBdvH.net
CUDAを待たずにどういったデータで描画してるの?

211 :デフォルトの名無しさん:2015/11/16(月) 11:12:07.65 ID:wFEoXPFZ.net
正確には
      CUDAで計算
          ↓
計算用と描画用として二つのデータをメモリにコピー
     ↓        ↓
グラフィック描画  CUDAで計算  ←ここを並列化したい
               ↓
計算用と描画用として二つのデータをメモリにコピー
     ↓        ↓
グラフィック描画  CUDAで計算
               ↓

といった処理の流れです
描画と計算の処理の合計が少しでも速くなれば最終的には速くなる見込みなんですが、描画とCUDAは同時にはできないのでしょうか?

212 :デフォルトの名無しさん:2015/11/16(月) 13:12:47.35 ID:tPyDrti9.net
>>209
そういうのは環境、sdk、cc、計算モード、HWによっても違うと思うんだけど。

大前提として計算してる最中でも、描画分のリソースは残してるのかね?

213 :デフォルトの名無しさん:2015/11/16(月) 18:15:47.96 ID:wFEoXPFZ.net
すいません何故か解決しました
OpenGLによる描画をサブスレッドにしていたところメインスレッドにしたら問題なく実行できるようになりました

214 :デフォルトの名無しさん:2015/11/19(木) 10:22:54.59 ID:78JlLUmP.net
AMD、GPGPUの向けの取り組み「ボルツマンイニシアチブ」を発表。CUDAとの互換性も提供 | スラド
http://srad.jp/story/15/11/18/0657225/

215 :デフォルトの名無しさん:2015/11/19(木) 18:31:49.90 ID:xKyOvSDo.net
>>214
いまや一般向けプログラムですらGPUを使うことが普通になったから、
これがC++コンパイラーのデファクトになるだろうな。
DX12,VulkanでGPUするならAMDって流れにまってしまったからな

216 :デフォルトの名無しさん:2015/11/19(木) 20:24:21.71 ID:FjjW9TL1.net
え?
GPGPUの世界は圧倒的にNVIDIAなんだけど?

217 :デフォルトの名無しさん:2015/11/19(木) 20:26:18.29 ID:Zq45eYUV.net
PC用GPUでもAMDはシェア2割切ってるでしょ

218 :デフォルトの名無しさん:2015/11/19(木) 21:33:26.48 ID:ngiRjlY7.net
産業向けのガチのやつならNvidiaでくだ
カジュアルな一般向けならIntelをOpenCLでってとこかな

219 :デフォルトの名無しさん:2015/11/19(木) 22:05:05.00 ID:btQoS/xZ.net
開発の手間で言えばCUDAが一番楽。NV限定にできるなら趣味でやるにしてもそれが一番手軽。
OpenCLならせめてAMD。IntelはOpenCLの経験を積んだ苦労と向け。

220 :デフォルトの名無しさん:2015/11/19(木) 22:09:50.57 ID:ngiRjlY7.net
個人向けやオフィスPCでグラボ別にあるのって少数だから仕方ない。
数を優先するならむしろNvidia切ってIntelのみ対応という手もありうる。

221 :デフォルトの名無しさん:2015/11/19(木) 22:10:45.45 ID:ngiRjlY7.net
慣れてるし開発ツール揃ってるからNが一番楽なんだけど。

222 :デフォルトの名無しさん:2015/11/19(木) 22:48:28.04 ID:btQoS/xZ.net
HD GraphicsでOpenCLやってもCPUと大して性能変わらんぞ?
それに、オンボードグラフィックスのPC自体は多いだろうが、OpenCL1.0しか動かんとか
そもそもOpenCLが使えないのも少なくない。間口でいうならSSEでもやるほうがまし。
そうでなければAMDでOpenCL開発してNVとIntelで動作確認ってところだな。

223 :デフォルトの名無しさん:2015/11/19(木) 23:05:53.48 ID:ngiRjlY7.net
>>222
CPUの代わりというよりは少しでも計算パワーがほしい場合もあってさ。
GPU使ってる間CPU使えるなら2倍になるじゃん?
あるいはBGでうごかしてフロントでは通常のアプリ使えるじゃない?
絶対的なパワーというよりはそういう所に使いでを見出してる。

確かにOpenCLはHWアーキ変更激しいし世代でがらりと変えてくるからやりにくそうなんだけど。

224 :デフォルトの名無しさん:2015/11/19(木) 23:06:47.02 ID:ngiRjlY7.net
間違い。OpenCLではなくてIntelのGPUね

225 :デフォルトの名無しさん:2015/11/19(木) 23:36:03.63 ID:u4ZVkU4H.net
AMD関連使って良かったと思った印象が一度も無いから使いたくねえな

226 :デフォルトの名無しさん:2015/11/19(木) 23:54:31.95 ID:btQoS/xZ.net
>>223
つまり、少しでもパフォーマンスは欲しいけどdGPUほどの性能は必要なくて、
数を優先するけどオンボードグラフィックスでOpenCLが動く環境に限定していいと。
最初の「カジュアル」からは想像つかないピンポイントな要件だなw

227 :デフォルトの名無しさん:2015/11/20(金) 00:37:51.03 ID:XYOZ5eLO.net
カジュアルGPGPUなら内蔵GPUでOpenCL2確定
一方、外GPUを使う高性能GPGPUものは昔はNvidiaが圧倒していたけど、いまはAMDが圧倒しているんだろ?

228 :デフォルトの名無しさん:2015/11/20(金) 00:49:06.07 ID:H4wqwi3u.net
>>226
そうなのかなあ?自分の文章の書き方が良くないのかもしれないが
ほとんどは内蔵GPUしか期待できないから、
その範囲で少しでも計算パワー稼ごうと思ったらそれしかないように思うのだけど

dGPUほどの性能はいらないわけじゃなくて、ほとんど期待できないからしかたなくという感じ。

229 :デフォルトの名無しさん:2015/11/20(金) 01:19:10.06 ID:mr/p17yR.net
組み込みは知らないけど汎用PCでAMDが圧倒した話なんて聞いたことない

230 :デフォルトの名無しさん:2015/11/20(金) 05:55:05.61 ID:M/+Jbdu5.net
bitcoin マイニングでは AMD 一択だったようだが

231 :デフォルトの名無しさん:2015/11/20(金) 07:13:28.40 ID:08M9JHWM.net
deep learningではNVIDIA圧勝だろ?

232 :デフォルトの名無しさん:2015/11/20(金) 07:48:52.29 ID:kIzUFPbb.net
bitcoinは専用ASICが開発されてとっくにそっちが主流になりました
GPGPUでやったところで、最早電気代のもとを取ることすらできない

GPGPUが最適といわれるのはASIC以前にFPGA化して売り出すほどの人気もない
マイナー暗号通貨くらいでそんなニーズが世界的な需要をけん引することなんて
ありうるわけがないのだ(需要が少ないからこそGPGPUでやってるわけだし)

233 :デフォルトの名無しさん:2015/11/20(金) 07:54:46.98 ID:h5Le2W6O.net
>>228
一般に配布するアプリでなるべく多くの環境で動かしたいというならOpenCLで、
内蔵GPUしかない人は動けば御の字、もっと速く動かしたければちゃんとしたGPU
買ってね、でいいと思うが。
社内ツールとかで外付けがほとんど期待できないのなら、たいして速くならない
割りに動かないリスクばかり大きいんで素直にCPUのがマシ。

234 :デフォルトの名無しさん:2015/11/20(金) 08:15:06.13 ID:lXZVvFkG.net
GPUばりばり使ってますってアピールしているプログラムで、avxもsseも使えないようなプログラミングしている例も多いからなぁ。

235 :デフォルトの名無しさん:2015/11/20(金) 08:21:26.00 ID:kIzUFPbb.net
内蔵GPUはどのみちメインメモリの帯域で頭打ちになるのでたいていの問題では
AVX使ったほうが速いんだよね

どっかのA社のはCPUコア側のメモリ帯域にリミッタがかかってて内蔵GPU側も使わないと
フルに帯域を使えないうえCPU側のAVX性能が残念だから
そもそもそれ専用にプログラム書くほどの市場がない

CUDAは一握りでもちゃんと労力に見合った金を払ってくれる法人ユーザーが一定数いるから
ビジネスとして成立するんだよ。その点法人皆無で貧乏人しかいないA社ユーザーじゃ無理

236 :デフォルトの名無しさん:2015/11/20(金) 11:47:48.38 ID:mr/p17yR.net
ビットコインマイニングとか普通じゃない使い方で普及してるかどうかはどうでもよくないか

237 :デフォルトの名無しさん:2015/11/27(金) 23:57:44.09 ID:tzomtYgx.net
内臓GPUにこだわるのはそもそもGPUに興味もない人が増えていて
そんな人までプログラム、GPGPUに参加したり利用する可能性が高いからなんだよな
GPU自体ニッチ向けの商売になりつつあるし

238 :デフォルトの名無しさん:2015/11/28(土) 00:01:22.67 ID:KoXr/JyJ.net
>>211
DX12でGeForce全般がAsync、非同期処理が苦手といった話があったけどそれとは関係ないよね?
自己解決ってことはやっぱ非同期で処理してたのが原因かもしれないけど
(サブで描画するのは普通にお行儀が悪いけど)

239 :デフォルトの名無しさん:2015/11/28(土) 00:33:01.21 ID:CG0HQ1xP.net
単にOpenGLの使い方の問題だろ。context作ったスレッドと別のスレッドからアクセスしようとした。

240 :デフォルトの名無しさん:2015/11/29(日) 06:40:00.31 ID:Ciaig/FJ.net
Win7PCに搭載されたQuadro4000とVC2012のC++AMPでfloatの計算をさせると「グラフィックスが応答しないのでリセットしました」とかメッセージをだしてプログラムが異常終了してしまう。
計算量はCPUを使った場合に8スレッド+AVX2で30分くらい。一枚のグラボで画面表示とGPGPU計算の両立は無理? CUDAを使えば可能なのだろうか?

241 :デフォルトの名無しさん:2015/11/29(日) 06:56:59.57 ID:PzHZjgEI.net
少し前のレス見てごらん

242 :デフォルトの名無しさん:2015/11/29(日) 19:54:46.97 ID:jxlspYCF.net
>>240
GPGPUではよくあること
そんなことがよくあるから一般PCでGPGPUが激活用されない
一般PCではGPGPUよりOSによる画面表示の方が大事だから、画面表示を激妨げるのものは殺す
GPGPUを必死したいならGPGPU用VGAと画面表示用VGAを搭載する
画面表示を激妨害しないようなゆとりGPGPUプログラムにする

243 :デフォルトの名無しさん:2015/11/29(日) 22:14:39.86 ID:Ciaig/FJ.net
>>231
レスありがとう。
やっぱ、無理なんだ。
動くのは、サンプルだけか。

244 :デフォルトの名無しさん:2015/11/29(日) 22:41:35.63 ID:eJ1soHzz.net
GPGPU始めたときに最初に引っかかるところだな。
これの一番下。
https://msdn.microsoft.com/ja-jp/library/hh873126.aspx

245 :デフォルトの名無しさん:2015/11/29(日) 23:16:26.96 ID:vsLNXKl8.net
QuadroってTCCモードにできなかったっけか?

246 :デフォルトの名無しさん:2015/12/02(水) 07:09:10.66 ID:REHK1l6p.net
Quadro自体結構前の世代のグラボじゃないっけ・・・

247 :デフォルトの名無しさん:2015/12/09(水) 05:38:34.32 ID:0m997ITy.net
2秒たったらハードウエア割り込みをかけて一瞬だけ画面表示させて、TDRが問題にならないように制御できないのかな?

248 :デフォルトの名無しさん:2015/12/09(水) 16:39:41.14 ID:OazooE89.net
あんたエンジニアに向いてないなw

249 :デフォルトの名無しさん:2015/12/09(水) 19:33:54.62 ID:wnEGaksG.net
いや、むしろ向いてるかも
デスマーチを突破するにはそれぐらいのやっつけ仕事が出来なきゃねw

250 :デフォルトの名無しさん:2015/12/10(木) 02:04:50.93 ID:0cE1JGhL.net
勢いでwindows10にしてからcudaが一切認識しなくなった・・・
version7.5、ドライバ最新版入れてGPU-ZでCUDAにチェック入っているのに初期化で失敗する。
付随してwaifu2x-caffeとかも動かなくなってるしもしかしてまだwin10には対応してなかったのか。

251 :デフォルトの名無しさん:2015/12/10(木) 02:30:34.40 ID:DGBX2/sF.net
>>250
http://docs.nvidia.com/cuda/cuda-installation-guide-microsoft-windows/#axzz3tqUfj73l
によるとサポートしてそうだけど

252 :デフォルトの名無しさん:2015/12/10(木) 22:46:54.47 ID:0cE1JGhL.net
>>251
だよね・・・
最新ドライバや少し古いバージョンを入れてみるとGPU-Zでチェックに入ってるんだが
cudaを使うソフトがことごとく検出できませんでしたと出てサンプルプロジェクトも強制終了する。
NVEncのためにCUDAが使えなくなったとかいう記事見たけど、まさかこれが理由ってわけではないよね

253 :デフォルトの名無しさん:2015/12/10(木) 23:22:08.77 ID:9vd2ccw+.net
>>252
win10のvs2013で7.5問題なく使えてる。ついてくるサンプル、ビルド・実行ともに。

254 :デフォルトの名無しさん:2015/12/10(木) 23:59:35.52 ID:Qmth+aWu.net
今のNvidiaはAMDに比べてかなり安定度低いからな

255 :デフォルトの名無しさん:2015/12/11(金) 02:14:41.31 ID:f48gwmmB.net
>>252
GPU-ZでCUDAが見えるのにアプリケーションが動かないってのはRuntime DLLが
見つからないんじゃないのか?
どっちにしても、CUDAのどの関数を呼んだときに落ちるのか、あるいはそもそも
最初から起動できないのか、どこで落ちているかくらい調べることはできるだろ。

256 :デフォルトの名無しさん:2015/12/26(土) 22:42:40.07 ID:Xbomr4ek.net
>>249
そんな態度でいるからデスマーチに陥るんじゃ?
いざとなった時の処世術は身につけておかなければいけないとは思うけど

257 :デフォルトの名無しさん:2016/01/10(日) 19:11:06.55 ID:EetmQxdp.net
おかげさまでCUDAでchainer使えるようになりました。
爆速で進捗状況見てるだけで嬉しいです。
本当にありがとうございました。

258 :デフォルトの名無しさん:2016/01/13(水) 07:52:00.07 ID:6qdfgrgw.net
使えなかった理由は何だったのかと

259 :デフォルトの名無しさん:2016/01/17(日) 02:52:40.35 ID:u0dhvow6W
教えていただきたいことがあります。
ubuntu14で、chainer1.5.1のmnistをGPUで計算できるか試行錯誤中です。
python train_mnist.py --gpu 0 #エラー 
sudo python train_mnist.py --gpu 0 #エラー
python train_mnist.py --gpu 0 #うまく動いた
と、sudoをつけて外しただけで、うまく動いた理由を知りたいのです。自分の操作が正しいのか間違ってるのかよくわからなくなってきました…
ログのリンクも添付しています。2つは同じファイルです(dotupはアップローダーの都合上zip圧縮しています)

事前の処理として、vgaのドライバ、cudaとcudnnを入れてパスを通しています。
またchainerのmnistも、cpuの処理ならエラーは出ずに動いていました。

操作は
python train_mnist.pyを実行してcrl+cで止めた。
python train_mnist.py --gpu 0を実行してエラーになった(30-38行目と同じエラー)。
その後、再起動
1行目:VGAの番号を取得した(GTX750tiのIDが0)
28行目:enter押しただけ
29行目:python train_mnist.py --gpu 1 なんとなくid1で動かしてみた。エラー
39行目:id2で動かしてみた。内蔵gpuを使うかも?と思ったがエラー
49行目:id0で試すもエラー
59行目:sudoつけてみてエラー。パスを引き継いでないからnvccがない(=CUDAが見つからない)、cudnnが無いというエラーが出ているのだと思います。
91行目:sudo外したら普通に動いた

http://www.dotup.org/uploda/www.dotup.org702271.zip.html
http://www1.axfc.net/uploader/so/3602353

260 :デフォルトの名無しさん:2016/01/17(日) 03:23:46.57 ID:lMNqpq/q.net
教えていただきたいことがあります。
ubuntu14で、chainer1.5.1のmnistをGPUで計算できるか試行錯誤中です。
python train_mnist.py --gpu 0 #エラー 
sudo python train_mnist.py --gpu 0 #エラー
python train_mnist.py --gpu 0 #うまく動いた
と、sudoをつけて外しただけで、うまく動いた理由を知りたいのです。自分の操作が正しいのか間違ってるのかよくわからなくなってきました…
ログのリンクも添付しています。2つは同じファイルです(dotupはアップローダーの都合上zip圧縮しています)

事前の処理として、vgaのドライバ、cudaとcudnnを入れてパスを通しています。
またchainerのmnistも、cpuの処理ならエラーは出ずに動いていました。

操作は
python train_mnist.pyを実行してcrl+cで止めた。
python train_mnist.py --gpu 0を実行してエラーになった(30-38行目と同じエラー)。
その後、再起動
1行目:VGAの番号を取得した(GTX750tiのIDが0)
28行目:enter押しただけ
29行目:python train_mnist.py --gpu 1 なんとなくid1で動かしてみた。エラー
39行目:id2で動かしてみた。内蔵gpuを使うかも?と思ったがエラー
49行目:id0で試すもエラー
59行目:sudoつけてみてエラー。パスを引き継いでないからnvccがない(=CUDAが見つからない)、cudnnが無いというエラーが出ているのだと思います。
91行目:sudo外したら普通に動いた

http://www.dotup.org/uploda/www.dotup.org702271.zip.html
http://www1.axfc.net/uploader/so/3602353

261 :デフォルトの名無しさん:2016/01/17(日) 04:58:38.94 ID:rTwmHzKS.net
普通にsudoユーザー環境でcudaにパスが通ってないだけ
パスの通し方がわからなかったらこのスレじゃなくてLinuxの初心者スレで

262 :デフォルトの名無しさん:2016/01/17(日) 14:25:56.74 ID:lMNqpq/q.net
>>261
ありがとうございました。

263 :デフォルトの名無しさん:2016/01/21(木) 02:42:05.52 ID:ZU2ddnih.net
素人な質問なんですがコア数×10スレッド立てたときとコア数と同じスレッド数で10ループした場合とでは前者の方が1.5倍くらい早かったんですけど何故でしょうか
物理的に真に並列で動作するのはコア数と同じスレッド数ではないのですか
最適なスレッド数が分からなくて困ってます

264 :,,・´∀`・,,)っ-○○○:2016/01/21(木) 03:02:10.96 ID:tV143knu.net
Core数ではなくWarp数に合わせるべし
Maxwellの場合はコア数とWarp数は一致してるけどね
コア数の倍以上のスレッド数を立ち上げるメリットは、ロード・ストアを含む命令間の
レイテンシが隠蔽されるのでパイプラインの充填率が上げやすくなる。
半面、1スレッドあたりで使えるレジスタ本数が少なくなるので

ロード・ストアを頻発するほどのレジスタ不足になるのは本末転倒なので
並列化は程々に。
これに特に明確な基準はない。最適なスレッド数はトライ&エラーで決める。

慣れてくるとPTXとかCUBINを逆アセンブルして決める場合もある
(昔、理研で重力を自在に操る高貴なる男性研究者がメールで教えてくれた方法)

265 :デフォルトの名無しさん:2016/01/21(木) 03:04:52.51 ID:l5HMGS+b.net
>>263
仮想コア等の技術などで、本来あるコア数以上の並列処理をするのが最新のcpuやGPU、そしてライブラリ
そのへんはあまり考えずにリファレンス通りに投げてしまう方がいいと思う。
ライブラリによっても日々変わるので、最適なスレッド数というのはわからない

266 :デフォルトの名無しさん:2016/01/21(木) 03:07:26.03 ID:UGOk39Ww.net
並列化のアレコレの時に気をつけるのは基本的にはオーバーヘッドやで
スレッド増やしたことで減るオーバーヘッドを考えてみなされ

267 :デフォルトの名無しさん:2016/01/21(木) 03:12:33.48 ID:RQbtFNgK.net
そんなもん処理にもよるわ
メモリアクセスがネックになることが多いから
物理的に真に並列で動作するなんてことの方がまれ

268 :デフォルトの名無しさん:2016/01/21(木) 03:52:40.75 ID:ZU2ddnih.net
>>264
時間のかかる処理を行っている間に別のワープへ命令を発行しているということなんですかね

269 :デフォルトの名無しさん:2016/01/22(金) 08:29:36.48 ID:3nKRZUCp.net
ECCにはこだわっても
マザーの品質にこだわらないならいいのではw

270 :デフォルトの名無しさん:2016/01/22(金) 17:13:45.63 ID:xiqoLqZ5.net
正直本格的な並列処理は非同期処理対応したGPUを待った方がよさそうなんだけどな

271 :デフォルトの名無しさん:2016/01/22(金) 18:34:49.79 ID:EJ7vldBc.net
別に待つ必要なくね?
乗り換えれば済むし

272 :デフォルトの名無しさん:2016/01/22(金) 19:37:25.23 ID:xiqoLqZ5.net
RadeonはCUDA対応してないじゃん
nvidia製の非同期処理に対応したCPUは実質的にはまだ出てない

273 :デフォルトの名無しさん:2016/01/22(金) 22:55:19.34 ID:XypiUmy6.net
>>272
>RadeonはCUDA対応してないじゃん
当たり前じゃんw

>nvidia製の非同期処理に対応したCPUは実質的にはまだ出てない
だからなに?
それまで待ってるの?
意味がわからない

274 :デフォルトの名無しさん:2016/01/22(金) 23:25:50.64 ID:t81Zesj8.net
落ち着けよ

275 :デフォルトの名無しさん:2016/01/22(金) 23:38:58.19 ID:/Be9v1kC.net
1.メモリ読みにいく
2.大きな遅延が発生するからレジスタ待避
3.別なスレッド立ち上げる

を繰り返し
レジスタがどんどん減っていく

276 :デフォルトの名無しさん:2016/01/22(金) 23:48:18.02 ID:xiqoLqZ5.net
>>275
これがあるから並列処理に制限がかかって
非同期処理はnvidiaがNG出す状況になってるんだろうなと思う

277 :デフォルトの名無しさん:2016/01/23(土) 00:13:36.37 ID:TXnGkntP.net
いや非同期かんけぇねぇし

278 :デフォルトの名無しさん:2016/01/23(土) 00:24:57.37 ID:NV47HivO.net
>>276
お前さっきからなに訳のわからない事言ってんだよ

279 :デフォルトの名無しさん:2016/01/23(土) 02:41:31.78 ID:qmdjqcBj.net
今あるもの使うしかないのに何が言いたいのかわからんぞ

280 :デフォルトの名無しさん:2016/01/28(木) 12:46:52.07 ID:6a4EL6WE.net
非同期処理はゲームで使うもの
GPGPUには関係ないよ

281 :デフォルトの名無しさん:2016/01/28(木) 12:56:49.21 ID:6a4EL6WE.net
むしろNVにとっての痛手は倍精度のGPUを作っちゃうと「ゲーム用」が完全にAMD天下になっちゃう事
その最大の理由が、SCEに吹っかけすぎて、NV切りを起こされた事

GCN世代GPUがゲーム機を総獲りし、ローレベルAPIで組まれるAAAタイトルが全てGCNに最適化
これを奇貨としたAMDがDirectX12を提唱→DirectX史上初めての互換切り→AMDデファクトスタンダードの流れ
そのために科学技術演算と言う市場を捨てないといけなくなった

VulkanもDX12に倣って完全にAMDに合わせてるからな
だからディープディープ連呼するんだよ
半精度でディープが出来るからな

282 :デフォルトの名無しさん:2016/01/28(木) 15:37:41.52 ID:GWvEyNte.net
カメラと連携してリアルタイムで判断をこなしながらってのは非同期処理無しでも大丈夫なのか?

283 :デフォルトの名無しさん:2016/01/28(木) 17:48:40.92 ID:nzOvC+QF.net
ばかがいる

284 :デフォルトの名無しさん:2016/01/28(木) 20:21:46.33 ID:EEHWgu+r.net
ああ、いつもの非同期君だよ
ほっとけ

285 :デフォルトの名無しさん:2016/01/29(金) 01:29:29.84 ID:q0fsZtFa.net
非同期はゲーム用って何度言えば

286 :デフォルトの名無しさん:2016/01/29(金) 02:29:28.87 ID:QU8XaCF4.net
非同期って何だよ

287 :デフォルトの名無しさん:2016/01/29(金) 07:41:28.07 ID:HGJh8rQ+.net
hyper-q

288 :デフォルトの名無しさん:2016/01/29(金) 12:43:58.50 ID:q0fsZtFa.net
多分非同期君はNV信者だと思う
そうでなければこんなところのこんなスレで五月蝿く連呼するか?

問題はなぜそうするのか、だ

俺なりに出した答えは、Pascal開発が暗礁に乗り上げてる所為だと思う
未だにモックしか出してないからな、Pascal

289 :デフォルトの名無しさん:2016/01/29(金) 15:12:50.38 ID:HGJh8rQ+.net
ばかがいる

290 :デフォルトの名無しさん:2016/01/29(金) 17:56:14.69 ID:q0fsZtFa.net
hyper-阿q HG

291 :デフォルトの名無しさん:2016/01/30(土) 11:53:30.18 ID:8faHSQBO.net
VulkanとDirectX12は殆どAMDのためにあるようなものだからな
ゲーム機を支配したAMDはローレベルAPIを支配し、ゲームコードは全てAMD基準になった
これはNVにとっては痛恨

倍精度GPUなんか出す余裕はないだろう

292 :デフォルトの名無しさん:2016/01/30(土) 12:24:57.23 ID:o5vi6iJ9.net
GPUのグローバルメモリのバンド幅計算で質問があります。
バンド幅(GB/s) = メモリのデータレート(MHz) * bit幅(bits) / 8(byte) / 1000

メモリのデータレート GDDR5の場合 clock * 4
           DDR3の場合 clock * 2

上記のようになると思うのですが、
DDR3は立ち上がり立ち下がりで情報を伝達するのでクロックの2倍になるのはわかったのですが
GDDR5がDDR3に比べなぜ2倍になるのでしょうか?

293 :デフォルトの名無しさん:2016/01/30(土) 14:18:14.00 ID:PJcKfdaW.net
クロック信号1周期に4回データ転送してるから4倍

294 :デフォルトの名無しさん:2016/01/30(土) 16:35:02.53 ID:o5vi6iJ9.net
>>293
回答ありがとうございます。

NVIDIAのスペックを見ていたのですが仕様値と計算があわず、わからなくなってしまいました。
http://www.nvidia.co.jp/object/product_tesla_C2050_C2070_jp.html
これによると、C2050は384bit, 1500MHz, で144GB/sとあるのですが、計算してみると
 384 * 1500 * 4 / 8 / 1000 = 288GB/s
になってしまうのです。仮に1500MHzがデータレートと仮定すると
 384 * 1500 / 8 / 1000 = 72GB/s

どちらも仕様値と違ってしまいます。もしかしてバンド幅はメモリのリードとライト
合わせての値なのでしょうか?

295 :デフォルトの名無しさん:2016/01/30(土) 16:36:27.36 ID:o5vi6iJ9.net
つまり上り72GB/s、下り72GB/sの合わせて144GB/sなのでしょうか?

296 :デフォルトの名無しさん:2016/01/30(土) 16:59:32.46 ID:8faHSQBO.net
NVはもう倍精度のGPUは造らないよ
ローレベルAPIをAMDに奪われた現在、半精度GPUで描画特化をせざるを得ない

297 :デフォルトの名無しさん:2016/01/30(土) 18:25:46.28 ID:ypcCS+Q8.net
CUDAスレで何言ってるんだかこのアホは

298 :デフォルトの名無しさん:2016/01/31(日) 00:13:30.67 ID:v07wXVxF.net
描画とかもうどうでも良い
時代はGPGPU

299 :デフォルトの名無しさん:2016/01/31(日) 00:57:29.07 ID:cNgLqKMa.net
GPGPUでは倍精度がものを言うが、NVはもう倍精度に手を出せないということ

300 :デフォルトの名無しさん:2016/01/31(日) 01:06:55.62 ID:V+Yf7lZI.net
単精度でも十分みたいな話じゃなかったの?
それでディープ・ラーニングを推し進めていると思ったんだけど

301 :デフォルトの名無しさん:2016/01/31(日) 01:23:20.65 ID:cNgLqKMa.net
深層学習とビッグデータは半精度(でも可)
しかしこのスレの関心はあくまでも倍精度、出来るならば倍々精度だろ?
しかしこの倍精度は、CS機の競争環境でオマケがつくか削られるか都合で決まる

そう言うわけでVoltaはアメリカ政府との契約違反に問われないように出荷するだろうけど、
これはカスタム

AMDにCS機が獲られた現在、NVのGPUは描画/ワットパフォーマンス特化路線に軸足を置いた
DirectX11まではハイレベルAPIだったから倍精度GPUを出す余地があり、同時に科学技術演算市場を狙う二兎を追う路線を
追求できた

しかしDirectX12は完全にAMDのGCN世代GPUのハード直叩き規格だから普通に戦ったらfps/解像度共に負けてしまう
だからこそ半精度に活路を求めている

302 :デフォルトの名無しさん:2016/01/31(日) 01:27:41.36 ID:v07wXVxF.net
DirectX12とかどうでもよろしい
ここはCUDAのスレ
AMDな方はOpenCL()のスレにお帰り下さい

303 :デフォルトの名無しさん:2016/01/31(日) 02:27:05.81 ID:tWmMlKqo.net
GeforceはいいからTeslaがんばれ

304 :デフォルトの名無しさん:2016/01/31(日) 08:33:54.41 ID:v07wXVxF.net
TeslaよりTitanの方が良いよ

305 :デフォルトの名無しさん:2016/01/31(日) 11:45:10.40 ID:k6wK0w/E.net
ばかが常駐するようになったな

306 :デフォルトの名無しさん:2016/02/01(月) 01:21:54.44 ID:27TlSaYk.net
倍精度倍精度って、使い道も無いくせに
滑稽だな
戦闘力みたいなイメージか

307 :デフォルトの名無しさん:2016/02/01(月) 02:50:26.19 ID:9fNLotPU.net
科学計算でも計算量が多くてそこまで精度が必要なものってどれだけあるんだ

308 :デフォルトの名無しさん:2016/02/01(月) 07:15:29.10 ID:BOcjqYcH.net
科学技術計算では単精度や半精度で行う方がよっぽど珍しいと思うが

309 :デフォルトの名無しさん:2016/02/01(月) 09:11:27.82 ID:fnCrDph6.net
物理系じゃ大きい数+極小の数なんて普通にあるからな
倍精度でも足りなくて四倍精度必要になったりすることもざら

310 :デフォルトの名無しさん:2016/02/01(月) 09:26:01.45 ID:2VMpgIMC.net
Kerasってdeep learningフレームワークはbackend.pyてファイルを追加するだけでopenclでも動くようになってるよ。誰かbackendを書かないか?

311 :デフォルトの名無しさん:2016/02/01(月) 12:33:46.47 ID:Ucvj9UOE.net
こうなったらこのスレの住人が声を上げて、PEZYに倍々精度のMPUを造ってもらおうよ
もうNVは金輪際倍精度に手を出さないよ

312 :デフォルトの名無しさん:2016/02/01(月) 14:17:42.51 ID:fSUYSvsK.net
倍精度が必要な要件って
例えば何があるんだ?
2.0e+38を超えるスケールで
2.0e-38以下の誤差を必要とするプロジェクト?
そんなのあんの?
そりゃー誤差が小さくなれば
破綻する可能性は減るけどさ
おたくらが求めてるのってそれだけじゃねえの?

313 :デフォルトの名無しさん:2016/02/01(月) 14:48:07.70 ID:iOXOBOCM.net
いらん
DNNではな

314 :デフォルトの名無しさん:2016/02/01(月) 14:59:29.79 ID:9fNLotPU.net
>>308
でもシミュレーションにGPGPU使ってる人いるだろ
たいして速度でないのに倍精度でやってんのか
xeon phi使った方が良さそう

315 :デフォルトの名無しさん:2016/02/01(月) 15:05:12.00 ID:CUSF99yG.net
>>312
指数分の大きさではなくて仮数部の大きさ(幅)だよね。
仮数部の幅分大きさの違う数値を加減算すると0を加減算したのと同じになると思うけど。

316 :デフォルトの名無しさん:2016/02/01(月) 15:07:09.85 ID:CUSF99yG.net
増分解法では致命的になる場合あり。

317 :デフォルトの名無しさん:2016/02/01(月) 15:07:56.23 ID:SiSRa9Ib.net
装置もんで数万枚/日のリアルタイム画像処理に使ってるけど、普通にdoubleが使えると楽なんだけどな。
速度も考慮すると大きい数と小さい数の計算前、画像処理の前後でdouble、float変換してるからCPU圧迫してくる。
でも、シンプルで意図した通りに動くからCUDAは組みやすい。
んー、この辺がジレンマだな。

318 :デフォルトの名無しさん:2016/02/01(月) 15:44:31.42 ID:fSUYSvsK.net
それは倍精度が必要な理由になってないような
やっぱ盲信が多そうだな

319 :デフォルトの名無しさん:2016/02/01(月) 16:07:14.05 ID:oiE/5K5n.net
>>311
そこの製品一般人で買えるルートあんのかよ

320 :デフォルトの名無しさん:2016/02/01(月) 18:24:22.88 ID:BOcjqYcH.net
大きな行列の計算、FFT、急峻なカーブの音声フィルター、レイトレーシング、物理シミュレーション、空間認識、...
倍精度以上の精度が必要な用途はいろいろとある

単精度のハードで倍精度相当の演算をすると、十数倍の時間がかかる
倍精度のハードで4倍精度相当の演算も同様に十数倍
多倍長演算も倍精度や4倍精度ハードがあれば、単精度よりもずっと速く計算が可能

321 :デフォルトの名無しさん:2016/02/01(月) 18:32:19.85 ID:BOcjqYcH.net
簡単な画像フィルターや音声フィルターなら単精度でいいし、ディープラーニングなら半精度でも良かったりする

半精度〜4倍精度までのハードがあるのが一番なんだけど

倍精度演算ハードがあれば単精度も同じ速度で計算が可能だが、単精度のハードで倍精度相当の演算をするには十数倍の時間がかかる
ゲーム用途など、単精度を使うことがはっきりしてる時じゃなければ倍精度を積んでおくのが無難

4倍精度はさすがにGPUに積むのは規模が大きくなりすぎるが、CPUには積んで欲しい
半精度は、単精度との変換だけでとりあえずは良い

322 :デフォルトの名無しさん:2016/02/01(月) 20:19:15.33 ID:Ucvj9UOE.net
http://www.4gamer.net/games/251/G025177/20160105002/
http://www.4gamer.net/games/251/G025177/20160105002/
>また,Huang氏が示したスライドで,第2世代Maxwellアーキテクチャベースの「GeForce GTX TITAN X」とDrive PX 2を比較すると,
>単精度浮動小数点演算性能は前者が7TFLOPSなのに対して後者は8TFLOPSと,
>劇的には高速化していない点も気になった。

↓その一方で…
>ちなみにHuang氏は,Drive PX 2の性能指標として,ディープラーニング処理の演算性能を示す
>「DL TOPS」を示しているが,これだとデュアルPascalはGeForce GTX TITAN Xの3倍以上というスコアになっている。

これ、完全にゲーム特化とビッグデータ特化GPUじゃん、Pascalwwwwww
俺の言ったとおりもう科学技術GPGPUはオワコンなんだよ
完全に半精度依存、完全にワットパフォーマンス/描画特化GPU路線だはwwwwww 👀
Rock54: Caution(BBR-MD5:0be15ced7fbdb9fdb4d0ce1929c1b82f)


323 :デフォルトの名無しさん:2016/02/01(月) 21:46:57.46 ID:vs1yi7F6.net
>>321
倍精度乗算器の回路コストは単精度の約4倍

324 :デフォルトの名無しさん:2016/02/01(月) 22:30:54.71 ID:MibI1Q78.net
バカが住み着いてる

325 :デフォルトの名無しさん:2016/02/01(月) 22:58:36.28 ID:9fNLotPU.net
実際に業務で使ってる人は倍精度で運用してるのか?

326 :デフォルトの名無しさん:2016/02/01(月) 23:10:33.37 ID:BOcjqYcH.net
>>323
まあ純粋に乗算器だけでいえばそうだけど...

>>322
半精度はさすがにゲームでも足りない
半精度専用GPUなんて出ない
少なくともPC用には

327 :デフォルトの名無しさん:2016/02/01(月) 23:17:23.47 ID:BOcjqYcH.net
>>325
業務っていろいろあるが
おれの範疇は単精度、倍精度、疑似4倍精度、多倍長といろいろ
多倍長も、筆算レベルからカラツバ、DFTレベルとさまざま
もちろん普通のレジスタサイズの整数演算も
特殊なジャンルであることは否定しない

328 :デフォルトの名無しさん:2016/02/01(月) 23:19:49.62 ID:BOcjqYcH.net
半精度もIEEE754じゃない独自フォーマットなら使った事はあるが、使った事があるって程度

329 :デフォルトの名無しさん:2016/02/01(月) 23:27:26.75 ID:dRJvSEmL.net
>>326
>半精度はさすがにゲームでも足りない

そんなこと分かるかよ
HDRで16bit浮動小数点フォーマットとか普通に使うだろ
メモリ帯域が半分で済むんだぞ
ゲームなんか正確さより速さ優先だから、色を表現するのに16bitで十分な場合がほとんどだろ

330 :デフォルトの名無しさん:2016/02/02(火) 01:51:42.07 ID:LP8V/wwM.net
だから違うよ
使ったことがあるかじゃねーよ
何でその精度が必要なのかってところよ
4倍精度とか軽々しく言うが
このスケールが本当にわかってるのか
疑わしいぜ

331 :デフォルトの名無しさん:2016/02/02(火) 03:08:21.02 ID:xiUt8T5M.net
4倍精度とか専用ハード作れとしか言いようがない
汎用品に求めるものじゃない

332 :デフォルトの名無しさん:2016/02/02(火) 12:53:46.97 ID:ULLNmZyK.net
>>326
よく嫁
Pascalは基本混合精度
PK104は単精度と半精度の混合
PK100は倍精度の混合らしいが、多分これはテスラ新シリーズとして販売だと思う

もうグラボ価格の倍精度CUDA組はむりぽ

>>331
もうPEZYにお願いするしかないよ、倍々精度
これはマジでそう思ってる
逆を言えば理研=PEZYの特殊HPCはそこしか生き残りが出来ないのではないか

どうしてもというならARMカスタムとか

倍精度はNVはもうだめぽだから、AMDに期待するしかない

333 :デフォルトの名無しさん:2016/02/02(火) 13:17:56.85 ID:sWHooGm6.net
混合精度って単精度と半精度が両方載ってるって事だよな

仮に1個の演算器の回路規模が1:3として、演算器の回路比率を1:1にし、単精度は半精度の演算も出来るとすると、すべて単精度にした場合に比べて演算器の数は単精度が半分で単精度が2倍か

単精度2倍のインパクトよりも単精度半分のインパクトの方が大きい気がする

334 :デフォルトの名無しさん:2016/02/02(火) 14:24:13.48 ID:ULLNmZyK.net
完全にグラフィックス描画効率/深層学習向けの構成だね
データ地獄になるから広帯域メモリも必要になるがHBM規格はAMDが握っているために、(HBM2の)開発が遅れた
GDDR5+を急遽導入する事になったのはそのため

このスレだとDX12とかVulkanとか一言口にするだけで「スレチガイだ馬鹿!」と怒鳴る奴がいるが、
これは全てが絡み合っている

DX12とVulkanという二つのローレベルAPIがAMD中心による策定である以上、これらのローレベルAPIへの依存を避ける
ワットパフォーマンスGPUに経営路線の舵を切るの必然

335 :デフォルトの名無しさん:2016/02/02(火) 15:52:24.40 ID:MS6gBcZU.net
>>334
スレチガイだ馬鹿!

336 :デフォルトの名無しさん:2016/02/02(火) 20:33:43.42 ID:ubpTh4Nt.net
>>334
そのすごいAMDでお前はどんなGPGPUソフト/プログラム作っていいるんだ?

337 :デフォルトの名無しさん:2016/02/02(火) 21:22:14.45 ID:xseyqTiA.net
cudaだっつうに

hsaスレでやってろ
馬鹿

338 :デフォルトの名無しさん:2016/02/02(火) 22:08:37.37 ID:+ZIKPYce.net
雑談は楽しいけど、ここCUDAスレやで
amdの話をするなってことじゃなく、スレチ話をいつまですんねんってこと

339 :デフォルトの名無しさん:2016/02/02(火) 22:41:10.14 ID:NB4DG1EG.net
Visual Studio 2015対応になるのはいつですかねぇ

340 :デフォルトの名無しさん:2016/02/03(水) 12:08:39.46 ID:15l+1fC7.net
>>336 >>337
自演乙
わざわざ自作板から出張ご苦労様

341 :デフォルトの名無しさん:2016/02/03(水) 12:56:39.94 ID:d3Nc4Jqw.net
バカな上の病気なんだな

342 :デフォルトの名無しさん:2016/02/03(水) 14:19:34.04 ID:15l+1fC7.net
Pasacalこけそうで危機感いっぱいだは

343 :デフォルトの名無しさん:2016/02/03(水) 22:25:31.36 ID:hEPpn7Fg.net
だはw

344 :,,・´∀`・,,)っ-○○○:2016/02/03(水) 22:25:59.26 ID:gpz71jEo.net
TeslaでもXeon Phiでもなく一般ピープル向けGPUに倍精度性能が必要だって言ってるのは
ろくに科研費申請が通らない貧乏研究室くらいでしょ

345 :デフォルトの名無しさん:2016/02/04(木) 13:10:48.29 ID:lq8BoEbf.net
>>344
お前が使い方を知らないだけ

346 :デフォルトの名無しさん:2016/02/04(木) 13:11:30.26 ID:lq8BoEbf.net
>>344
お前は半精度だけで十分

347 :デフォルトの名無しさん:2016/02/04(木) 18:29:53.21 ID:TT5D/Cpx.net
Maxwellは擬似的な倍精度も出来ないんだよ
それくらいしっておこうな

348 :デフォルトの名無しさん:2016/02/04(木) 20:00:25.29 ID:o+ucOEnp.net
単精度と比べると凄い遅いだけで
倍精度演算自体はハードで実装している。
物凄い遅いといっても1/32で1/16のradeon furyと比べると半分だから大差ないと言えば無い。

349 :デフォルトの名無しさん:2016/02/04(木) 20:13:21.23 ID:d8M6zG1u.net
Maxwellは倍精度の演算器が排除されただけで疑似倍精度は実装されている
そもそもソフトレベルでも実装できることだし

350 :デフォルトの名無しさん:2016/02/04(木) 20:15:36.92 ID:TT5D/Cpx.net
FURYはMaxwellを参考にしてるからな
HBMの容量の少なさが祟って何じゃこりゃ状態だったけど、Polarisは一層Maxwell類似のワッパ路線がとられる
これでNVはもう倍精度を完全に捨てにかかる

351 :,,・´∀`・,,)っ-○○○:2016/02/04(木) 23:21:52.01 ID:zdF89aL0.net
いや実際半精度が4倍速いほうが使いどころあると思うよ
ゲームで倍精度なんて使わないじゃん

352 :デフォルトの名無しさん:2016/02/04(木) 23:28:29.99 ID:3r7tJtQx.net
深層学習がはやったらGPGPUももっと市民権を得るかな?

353 :デフォルトの名無しさん:2016/02/05(金) 00:42:53.10 ID:TcXSJNY1.net
半精度を4倍速くしたら半精度専用になるな
そんなもの売れないぞ

354 :デフォルトの名無しさん:2016/02/05(金) 01:21:13.26 ID:p946S2WD.net
>>351
>ゲームで倍精度なんて使わないじゃん


団子!
お前はインテルスレとワッチョイIPの次世代AMDスレに帰れ

倍精度使わんGPGPUなんか炭酸のないコーラと同じ
ここは管スレ

355 :デフォルトの名無しさん:2016/02/05(金) 04:09:45.89 ID:iPwofUfz.net
倍精度を高速化したらどれだけ売り上げが見込めるのかをnvに分かるように説明したら。

>>353
頂点シェーダは単精度が必要でも、実行時間のかなりがフラグメントシェーダなんだから、別に半精度専用になって売れないとはならないだろう。


住みわけがある訳だろ。で、倍精度頑張ったのは期待の売り上げが出なかったわけだろ多分。
願望を語るスレであるより、アリモノでなんとかするスレであった方が建設的だと思うがね。

356 :デフォルトの名無しさん:2016/02/05(金) 07:52:28.94 ID:X6eE9Wue.net
すまんがゲーマーは帰ってくれないか?

357 :デフォルトの名無しさん:2016/02/05(金) 08:26:49.67 ID:23YXKvG1.net
なぜ団子がここにいる?

まあ、CUDAもかなり広く使われてくるようになったから、
数値演算の枠組みだけじゃなくなってきているのはわかるが。

358 :デフォルトの名無しさん:2016/02/05(金) 08:45:35.15 ID:bTIbnCX4.net
いやこのひとはかなり初期からCUDAつかってるの
それこそnvにgeforceくれてやるからCUDA使ってちょって
誘われるような時代から

359 :デフォルトの名無しさん:2016/02/05(金) 08:50:46.42 ID:KXdvQQGq.net
1スレ目に三色団子おるな

360 :デフォルトの名無しさん:2016/02/05(金) 12:16:48.26 ID:bTIbnCX4.net
http://techon.nikkeibp.co.jp/atcl/event/15/020100028/020400019/?bpnet&d=1454641873634
CNN専用チップ、NVIDIAなどがGPUの改良で開発

http://techon.nikkeibp.co.jp/atcl/event/15/020100028/020400019/160204NVIDIAp0.jpg

Eyerissは、グラフィックス処理プロセッサー(GPU)と同様、SIMD(single instruction multiple data)などから成る
プロセッサー・エレメント(PE)を多数集積したICである。

ただし、GPUとはデータの移動を最小限に抑えた設計にした点が異なる。
具体的には、EyerissはSRAMから成るオンチップメモリー108Kバイトを備えており、
CNNの各層の演算結果をオンチップメモリーにバッファリングさせることで、
チップ外の主記憶に書き戻す頻度を大きく減らした。

また、PEに入力するデータ列に共通部分がある場合は、その共通部分を保持して差分だけを入力する。
さらに、複数のPEに同じデータを入力する場合は、各PEにそれぞれ送るのではなく、
途中まで1つのデータとして送り、そこからPEの個数分データをコピーして入力する。いわゆるマルチキャストである。
これらによって、データ処理時のデータの移動を最小限に抑え、消費電力を大幅に低減した。

加えて、データを主記憶に書き戻す時は圧縮し、読み出す時に伸長する。
CNNの畳み込み演算後のデータはフィルターを通すことで圧縮しやすい形になっていて、メモリー帯域の節約効果が高いという。

 作製したEyerissの動作をNVIDIA社のGPU「TK1」と比較すると、
EyerissはデータのスループットこそTK1の約1/2だったが、消費電力はTK1の最小約1/37と大幅に低い。
主記憶に出し入れしたデータの帯域も、TK1の1120Mバイト/秒に対し、Eyerissは127Mバイト/秒だったとする。

361 :デフォルトの名無しさん:2016/02/05(金) 12:55:11.71 ID:p946S2WD.net
>>358
だからお前はインテルスレに帰れっつってんだろ団子!

362 :デフォルトの名無しさん:2016/02/05(金) 13:02:33.01 ID:bTIbnCX4.net
また病気か

363 :デフォルトの名無しさん:2016/02/05(金) 13:44:39.13 ID:p946S2WD.net
>>362
倍精度イラネ、ここは管スレだぞ!と言ってたのはお前だったのか、団子!

364 :デフォルトの名無しさん:2016/02/05(金) 14:31:20.41 ID:3SvgNTFs.net
団子ってなに?

365 :デフォルトの名無しさん:2016/02/05(金) 14:36:57.91 ID:3a93fntK.net
どうもこのスレには
CUDAをマシに使っている奴は
いないようにみえるな
ひたすらベンチマークしかやってない感じね

366 :デフォルトの名無しさん:2016/02/05(金) 16:33:49.39 ID:3vmCyKKd.net
倍精度よりコンテキスト処理の自由化をだな
Oculasからも苦言言われてるのに

367 :デフォルトの名無しさん:2016/02/05(金) 16:34:59.76 ID:3vmCyKKd.net
バックグラウンド処理が作りにくいからこそ、Asyncやプログラマブルコンテキストは次のGPUでは絶対に搭載してほしい

368 :デフォルトの名無しさん:2016/02/05(金) 16:48:34.33 ID:bTIbnCX4.net
ほとんど関係ない
http://www.tomshardware.com/news/vrmark-virtual-reality-benchmark-preview,30820.html

369 :デフォルトの名無しさん:2016/02/05(金) 23:50:50.50 ID:TcXSJNY1.net
はやく4倍精度のせろ!

370 :デフォルトの名無しさん:2016/02/06(土) 12:36:05.76 ID:pRi/vsC+.net
それをPEZYに言ってくれ

371 :デフォルトの名無しさん:2016/02/06(土) 18:18:06.14 ID:xHoLN9eE.net
お前その会社好きだな
一般向けに売ってもいないのに

372 :デフォルトの名無しさん:2016/02/06(土) 20:15:07.20 ID:pRi/vsC+.net
PEZY以外に応じてくれないぞ

373 :デフォルトの名無しさん:2016/02/06(土) 20:47:57.74 ID:xHoLN9eE.net
それでそこの製品は使ってるのか?

374 :デフォルトの名無しさん:2016/02/08(月) 05:05:55.45 ID:z0FWqNRt.net
いい加減にないものねだりはやめろ。

375 :,,・´∀`・,,)っ-○○○:2016/02/08(月) 22:05:16.73 ID:ZbGdhM32.net
「Teslaを一桁安値で買わせろ」みたいなのは論外だろ
ゲーマーと倍精度が欲しい人は市場が全くかみ合わない
そんなのもう結論出てるだろ

376 :,,・´∀`・,,)っ-○○○:2016/02/08(月) 22:24:56.08 ID:lyi6FC/t.net
もともとTeslaとQuadro/GeForceはECCの有無で差別化してたが
世界最大級のGPGPUスパコンがNonECCで使ってるので
全く差別化になってない

だから倍精度演算器を物理的に廃することでの差別化を行った
それだけ。

Tesla買えばいいだけだろ?
どうせ予算通らないから買えないだけだろ
ろくな論文も出せない底辺大学の研究室あたりがいいご身分だな

377 :デフォルトの名無しさん:2016/02/09(火) 00:34:13.76 ID:LI1PJjMq.net
>世界最大級のGPGPUスパコンがNonECCで使ってる
これについて詳しく。

378 :デフォルトの名無しさん:2016/02/09(火) 13:10:44.06 ID:i8FfOnoz.net
>>376
あなたはどこの大学ですか?

379 :デフォルトの名無しさん:2016/02/09(火) 14:10:52.05 ID:rPxo0Z4x.net
最初は影でこそこそディープディープ言ってて倍精度いらない、管スレでゲームコンソールを巡る政治的な思惑が
NVの倍精度切りに繋がった事実もスレチガイだ馬鹿野郎!って煽ってたのにな
流れが悪くなったのでコテの正体を出したんだろう

多分Async煽りも正体はこいつだ

ここのスレで倍精度がどうなるかは大学企業にとっても死活問題なのに
本当に陰険だね、団子は

380 :デフォルトの名無しさん:2016/02/09(火) 17:12:26.87 ID:CgzlKX4i.net
そこそこの分解能ならTeslaやTitanで十分だろ

381 :デフォルトの名無しさん:2016/02/09(火) 17:14:02.43 ID:uHp67F+7.net
べつにphiでも使えばいいだけだが
teslaとphiの混合機も普通にあるし

とりあえずamdという選択肢は皆無

382 :デフォルトの名無しさん:2016/02/09(火) 17:32:39.26 ID:i8FfOnoz.net
登場かな

383 :デフォルトの名無しさん:2016/02/09(火) 18:40:55.41 ID:OHQNRB+7.net
nvは高校生や高専向けのセミナーもやってるし
ことしのgtcもセッション数は500超える

やってきたことの重みが違いすぎる

384 :デフォルトの名無しさん:2016/02/09(火) 19:05:34.27 ID:Z0SOCsIU.net
でも他GPUでは使えないんでしょ?ってのが重すぎる
GPGPUはnvidiaの私物ではない

385 :デフォルトの名無しさん:2016/02/09(火) 19:07:27.62 ID:dBPqK+gq.net
まともな研究機関ならTeslaは学割使えるんだが…
GeForceで倍精度が必要な理由なんてほんと世間知らずの戯言だな

386 :デフォルトの名無しさん:2016/02/09(火) 19:15:52.47 ID:CgzlKX4i.net
>>384
黎明期はデファクトスタンダードの取り合いだから当然の流れ

387 :デフォルトの名無しさん:2016/02/09(火) 19:20:58.08 ID:OHQNRB+7.net
>>384
よそが勝手に投げ出しただけじゃん

388 :デフォルトの名無しさん:2016/02/09(火) 19:27:05.49 ID:C4h+tGmi.net
>>384
言ってることが頓珍漢過ぎる
嫌ならopenCL使えばいいじゃん?

389 :デフォルトの名無しさん:2016/02/09(火) 19:32:42.77 ID:OHQNRB+7.net
dlといえばmitとnvが共同開発したeyerissはflotじゃなくfixedだったな
データ移動を極力控えた構造でcnnの場合データの再利用性が高いので
peからpeへの受け渡しが有効なのだとか

それでもエネルギーコストは
aluからレジスタファイルへの場合を1とすると
peへは3
内部のバッファーへは10
外部dramへは500のエネルギーコストがかかるんだそうな

390 :デフォルトの名無しさん:2016/02/09(火) 20:43:41.18 ID:YFSBhYG5.net
>ここのスレで倍精度がどうなるかは大学企業にとっても死活問題なのに

言うことがバカすぎて吹いた
まともな法人はこのスレに社運なんてかけませんから

Tesla相当の性能をGeForceにも実装しろという
悪質クレーマーを客だと思わない権利は
NVIDIAにもあるだろjk

391 :デフォルトの名無しさん:2016/02/09(火) 21:14:42.66 ID:q4H41fNH.net
米エネルギー省の評価ソフトがほとんど単精度で
倍精度使うのがlinpackしかいという

392 :デフォルトの名無しさん:2016/02/09(火) 21:20:54.23 ID:IR1D3KHq.net
単精度じゃ足りないけど倍精度なら十分って領域は実は少ない。

単精度用演算器に少量の精度を追加して倍精度を1/4の速度でやるのが一番利に叶っている。
まあこれすら普及帯ではけちられて1/16になるのが倍精度の立ち位置

倍精度用の演算器積むくらいだったら単精度の演算器で可能なbit数で複数組み合わせると簡単に多倍長精度演算を実現できるような命令を用意してくれた方がよっぽどありがたい。

393 :デフォルトの名無しさん:2016/02/09(火) 21:34:25.12 ID:DH+vdKhf.net
>ここのスレで倍精度がどうなるかは大学企業にとっても死活問題なのに

糞ワロタwww
このスレすごいんだな

394 :,,・´∀`・,,)っ-○○○:2016/02/09(火) 21:47:11.85 ID:SI3uOwiZ.net
どっかのバKaveriは512SPで倍精度50GFLOPS未満
CPU1コアより遅いんだが

395 :デフォルトの名無しさん:2016/02/09(火) 22:14:14.05 ID:5ErhaZ8p.net
今日は団子がいっぱいいるなあ

396 :デフォルトの名無しさん:2016/02/10(水) 00:25:10.96 ID:u83LBvNZ.net
倍精度が高ければ許される
倍精度が低ければ、メモリが多くてもメモリ幅が多くても消費電力が低くても許されない

397 :デフォルトの名無しさん:2016/02/10(水) 00:37:19.11 ID:ZwcaN/9X.net
団子分身の術か
もうここもワッチョイの時期かね?

398 :デフォルトの名無しさん:2016/02/10(水) 00:56:31.15 ID:pL5WuRkY.net
だから団子ってなんだよ?

399 :デフォルトの名無しさん:2016/02/10(水) 01:41:12.63 ID:JsTfqJoq.net
団子は団子。

400 :デフォルトの名無しさん:2016/02/10(水) 02:29:40.13 ID:FSPq21yA.net
amd信者っていう精神病患ってるよな

401 :,,・´∀`・,,)っ-○○○:2016/02/10(水) 08:25:30.16 ID:gHO8h5ZQ.net
倍精度ハードフル実装マンセー

トランジスタが増える

ウエハ1枚あたりのチップ採れる数が減る(&歩止まり率も減る)

製造コスト上がる

(,,・´∀`・,,)

402 :デフォルトの名無しさん:2016/02/10(水) 08:35:12.26 ID:IPR+3W8l.net
倍精度の話しないと死んじゃう人は点呼取ってくれる?
「倍精度でCUDA」スレと、「実在のGPUでCUDA」スレに分けた方がいいよね、多分。

403 :デフォルトの名無しさん:2016/02/10(水) 08:39:26.22 ID:5rSlusQ0.net
バカはhello worldから始めなさい

404 :,,・´∀`・,,)っ-○○○:2016/02/10(水) 08:48:59.74 ID:gHO8h5ZQ.net
件の赤い会社が帳簿の赤も解消しないのは、市場価格に対して製造原価が高すぎるからだよ
会社を潰れかけの状態にしてまで実装コストの高い倍精度ハードを実装するのは模範的な企業とは思えんがねえ

QuadroとTeslaのブランドが分かれてないようなもんだ

405 :デフォルトの名無しさん:2016/02/10(水) 08:57:23.58 ID:5rSlusQ0.net
まぁDLのおかげでteslaでも倍精度無しのものもあるけどね
ただ今後、DLはEyerissの方向で行きそうなんで
完全にDLは別ラインの製品でいくのか
GPU自体がEyerissの発展形になるか

GPUのデータ移動減らすとかレジスタファイルの階層化って研究はしてるようだけど

406 :デフォルトの名無しさん:2016/02/10(水) 12:31:36.49 ID:zvpoME6O.net
何とか倍精度不要論に持っていこうと必死な団子でした

407 :,,・´∀`・,,)っ-○○○:2016/02/10(水) 12:36:21.64 ID:qcpMLBSZ.net
アホがいるね

特定のアプリケーションに特化して結果的に倍精度性能落とした製品は、その目的の用途から外れなきゃ何の問題もねーじゃん
ディープラーニングにもゲームにも倍精度の性能は必要ないから

倍精度が必要な用途にはK80やその後継あるいはPhiを買えばいい
科学技術演算用に設計されてないGPUに倍精度が必要だとかいうのはただのデムパ

408 :デフォルトの名無しさん:2016/02/10(水) 13:03:35.72 ID:VS1+7AWR.net
>>402
団子だけ隔離出来れば良い

409 :,,・´∀`・,,)っ-○○○:2016/02/10(水) 23:12:49.82 ID:7x9wHVqL.net
>>405
Teslaの単精度特化版は1スロット版のK8ならそうだけどK10なら発表は2012年で
ディープラーニング言い出す前の話
ダイ本体はGTX600番台そのものだからそれ専用に設計されてるわけではないしね


EyerissがよくわらんのだけどROPやテクスチャユニットも削ってるわけ?

410 :デフォルトの名無しさん:2016/02/10(水) 23:48:08.15 ID:pL5WuRkY.net
ここだけの話
K10はシェールガス探査特化モデルだよ

411 :,,・´∀`・,,)っ-○○○:2016/02/10(水) 23:52:02.41 ID:7x9wHVqL.net
倍精度推しの池沼君がどんな世の中の役に立つソフト作ってて
LINPACKベンチ以外なんの実務に役立ってるのかは興味あるね

412 :デフォルトの名無しさん:2016/02/11(木) 03:51:57.10 ID:Q8jkKaXt.net
eyerissはgpuじゃなくdl専用

413 :デフォルトの名無しさん:2016/02/11(木) 09:23:41.72 ID:pqlF/R5A.net
団子は倍精度に親でも殺されたか?

414 :デフォルトの名無しさん:2016/02/11(木) 09:24:20.60 ID:pqlF/R5A.net
豚に真珠
団子に倍精度

415 :,,・´∀`・,,)っ-○○○:2016/02/11(木) 09:27:55.02 ID:qHP8+I1C.net
>>411に答えてね

416 :,,・´∀`・,,)っ-○○○:2016/02/11(木) 09:37:09.50 ID:qHP8+I1C.net
俺は必要だっていう人の言い分は理解してるし
それに合わせたチップを選べばいいと思うのだけどね

倍精度ハードウェアがTeslaはともかく一般消費者向けのGeForceに
載らないといけない理由はない
一般消費者が倍精度のスループットを見てGPUを選ぶトレンドを作りたいなら
まずてめえが倍精度載せる価値のあるソフト作って示せばいい

417 :デフォルトの名無しさん:2016/02/11(木) 13:14:12.26 ID:Dgt4YBtM.net
科学技術演算に倍精度は必要不可欠

はい論破完了
簡単だったね

418 :デフォルトの名無しさん:2016/02/11(木) 13:23:19.60 ID:U2ZcAFvs.net
へー
それって
一般消費者向けの
GeForceに?

419 :,,・´∀`・,,)っ-○○○:2016/02/11(木) 13:27:04.20 ID:yn/CS7EG.net
一般消費者が科学技術計算する必要あることがまったく示せていない

420 :デフォルトの名無しさん:2016/02/11(木) 13:28:21.16 ID:pqlF/R5A.net
豚に真珠
団子に倍精度

421 :デフォルトの名無しさん:2016/02/11(木) 13:35:33.57 ID:U2ZcAFvs.net
あたまわるそう

422 :デフォルトの名無しさん:2016/02/11(木) 13:37:15.86 ID:Dgt4YBtM.net
ここは何スレだったっけ?
単発団子よ

423 :デフォルトの名無しさん:2016/02/11(木) 13:39:04.93 ID:U2ZcAFvs.net
また病気か?

424 :,,・´∀`・,,)っ-○○○:2016/02/11(木) 13:42:27.10 ID:yn/CS7EG.net
TSMCのウェハ価格体系的に用途別に倍精度が削れる用途向けには削ったほうが
コストダウンになるからそうするでしょうよ

Maxwell世代のTeslaがないのは大型スパコン案件もないからっての大きいと思う

425 :,,・´∀`・,,)っ-○○○:2016/02/11(木) 13:45:25.92 ID:yn/CS7EG.net
>>422
お前理解してないから出てけよ

426 :デフォルトの名無しさん:2016/02/11(木) 13:47:41.45 ID:U2ZcAFvs.net
Tesla M40「・・・」
Teala M4 「・・・」

427 :,,・´∀`・,,)っ-○○○:2016/02/11(木) 13:56:21.86 ID:yn/CS7EG.net
すまん、倍精度版ね

428 :デフォルトの名無しさん:2016/02/11(木) 15:18:50.25 ID:FNR4nKd2.net
今年の流行語大賞は売精奴

429 :デフォルトの名無しさん:2016/02/11(木) 17:25:56.22 ID:R5nKPKgb.net
普通に考えて一般向けGPUに倍精度はいらないよな
32bitと16bit浮動小数点しか使わねーよ
それでも贅沢なぐらい

430 :デフォルトの名無しさん:2016/02/11(木) 18:10:05.08 ID:0bpwaMQp.net
ほんとそれ
一般向けとしてはオーバースペックなくらい

431 :デフォルトの名無しさん:2016/02/11(木) 18:51:28.54 ID:pqlF/R5A.net
団子がいっぱい

432 :デフォルトの名無しさん:2016/02/11(木) 20:13:55.90 ID:Dgt4YBtM.net
駄目だ、団子の性でここも腐ってきた

433 :,,・´∀`・,,)っ-○○○:2016/02/11(木) 21:01:08.64 ID:yn/CS7EG.net
だからお前の発言のどこが論破なんだよ

論理破綻の略か?

434 :デフォルトの名無しさん:2016/02/12(金) 02:22:44.00 ID:m8Kq2x0U.net
シールズ脳

435 :デフォルトの名無しさん:2016/02/12(金) 13:14:15.71 ID:10CGBYPs.net
ここがCUDAスレだと何度言えば分かるんだ!団子
科学技術演算も出来ないGPUじゃ話にならんわ

436 :デフォルトの名無しさん:2016/02/12(金) 17:49:19.72 ID:igghQz0I.net
まあ、倍精度じゃないと、イタレーティブソルバーは収束しないわな。4倍精度ぐらいあれは、CG法で反復回数が極端に減るかもね。

437 :デフォルトの名無しさん:2016/02/12(金) 20:54:47.44 ID:okDGKGY+.net
売性奴

438 :デフォルトの名無しさん:2016/02/12(金) 21:37:49.48 ID:ws+NUeAo.net
風俗業みたいな書き方だな

439 :デフォルトの名無しさん:2016/02/12(金) 22:41:27.77 ID:10CGBYPs.net
今日の重力波観測にしたってあれは、理論屋が出したシミュレーションに従ってそれと同じデータを観測したわけだろ
そういうのが単精度/半精度で出せるわけねーだろ

440 :デフォルトの名無しさん:2016/02/12(金) 22:42:28.23 ID:okDGKGY+.net
じゃあ倍精度使ってんの?

441 :デフォルトの名無しさん:2016/02/12(金) 22:42:32.12 ID:7+E8+eHE.net
100倍精度くらいいるな

442 :デフォルトの名無しさん:2016/02/12(金) 22:43:21.37 ID:7+E8+eHE.net
倍精度なんて普通に使う
水や空気のように

443 :デフォルトの名無しさん:2016/02/13(土) 00:10:37.29 ID:KZpZDJLQ.net
ただし、グラフィックスには要らない

444 :デフォルトの名無しさん:2016/02/13(土) 00:16:44.75 ID:X+VeUhDc.net
@No double precision, no life.
ADouble precision make me happy.

445 :デフォルトの名無しさん:2016/02/13(土) 00:47:18.16 ID:vQuqpgIG.net
ここではMaxwellやPascalはおよびじゃない

446 :デフォルトの名無しさん:2016/02/13(土) 00:48:53.57 ID:dx+PFg0T.net
CUDAをなんのために使うかだよなあ。
グラフィックスだけならOPENGLだけでええんのとちゃうか?

447 :デフォルトの名無しさん:2016/02/13(土) 00:54:32.58 ID:LMFsV4x8.net
>>439
だったら何
そんなのはGPUであつかう問題じゃないから

448 :デフォルトの名無しさん:2016/02/13(土) 01:59:47.65 ID:KZpZDJLQ.net
GPUはグラフィックスを扱うのが本分なので
一般向けGPUは倍精度無しでも文句は言えない

449 :デフォルトの名無しさん:2016/02/13(土) 05:22:35.21 ID:zAv3sSPP.net
BSD! BSD! BSD!

450 :デフォルトの名無しさん:2016/02/13(土) 11:28:45.10 ID:EDACvSC3.net
>>448
お前の文句なんかどうでもいい
GPGPUってのはこういうことのために使うんだぜ!?団子

-----------------------------------------------------------------------
645 : 名無しのひみつ@転載は禁止2016/02/12(金) 22:56:12.20 ID:oUDSwd87
>>626
別に2ちゃんだから適当に幾らでも変なことでも聞いていいんじゃね?

人間の頭で考えないと絶対にダメな部分が最も大きい

相対論も標準理論も量子力学も計算機だけでは絶対無理

計算機が答を出すというより、計算機は望遠鏡とか温度計のような「測定器の一種」という感覚が近いと思う

GPGPUは使いまくってるはずだけど、半ば問題に特化して設計するスパコンもあり

スパコンに関してはそれ自体がすごいというより、スパコン目当てに優秀な人が集まる効果のほうが大事という気がする、2020年のオリンピックみたいにスパコンという祭りに人が集まるから、良い方にも悪い方にも転ぶだろう
646 : 名無しのひみつ@転載は禁止2016/02/12(金) 22:57:56.72 ID:eXgf7vm3

451 :デフォルトの名無しさん:2016/02/13(土) 12:08:27.34 ID:c+BFT1nX.net
いろいろ探して結局コピペ

452 :デフォルトの名無しさん:2016/02/13(土) 13:38:06.14 ID:LMFsV4x8.net
結局何が言いたいの?
理想のものが欲しければ自分が計算機設計の専門家になればいいじゃん
手遅れかもしれないけど

453 :,,・´∀`・,,)っ-○○○:2016/02/13(土) 14:55:58.29 ID:dwcfM3wy.net
自然言語処理や画像認識、いま産学連携で資金集まってるのはこういう分野
データサイエンス分野は文系の学者さんも研究に参画してるし応用範囲広いんだよね
何の金にもならない倍精度行列積で1位じゃないとダメなんですか?とかホントどうでもいい話

454 :,,・´∀`・,,)っ-○○○:2016/02/13(土) 15:03:24.00 ID:dwcfM3wy.net
スパコンに倍精度演算性能が必要なのは誰も否定してないじゃん
個人のゲームやお絵かき用のパソコンにそれが必要かという話であって。

コピペで代弁してもらったつもりになってるのかもしれないけど
実質的に何の主張にもなってないわけよ

455 :デフォルトの名無しさん:2016/02/13(土) 17:16:53.26 ID:EDACvSC3.net
>>454
>個人のゲームやお絵かき用のパソコンにそれが必要かという話であって。

ホントここが何スレか分かってない池沼
Async煽りをしてた団子が攻守入れ替わるとこれだからな

456 :デフォルトの名無しさん:2016/02/13(土) 17:49:57.42 ID:pMfjul4g.net
GPUとGPGPUの区別もつかないのか?

457 :,,・´∀`・,,)っ-○○○:2016/02/13(土) 18:00:36.66 ID:dwcfM3wy.net
> Async煽りをしてた団子が攻守入れ替わるとこれだからな
それこそお前の妄想じゃん

RadeonのGPGPUプログラミングの話をしたいなら超過疎のHSAスレへ

458 :,,・´∀`・,,)っ-○○○:2016/02/13(土) 18:03:11.84 ID:dwcfM3wy.net
> GPGPUは使いまくってるはずだけど、半ば問題に特化して設計するスパコンもあり

って引用しつつ、倍精度性能が不要な用途に特化する意義は認めないんだね

459 :,,・´∀`・,,)っ-○○○:2016/02/13(土) 18:11:06.88 ID:dwcfM3wy.net
ついでに攻められてるのがどっちなのかすら理解してない

460 :デフォルトの名無しさん:2016/02/13(土) 18:14:06.59 ID:vpwmEJlM.net
団子消えろ邪魔

461 :デフォルトの名無しさん:2016/02/13(土) 18:17:25.51 ID:vpwmEJlM.net
GPの意味わかるか?

462 :,,・´∀`・,,)っ-○○○:2016/02/13(土) 18:25:02.18 ID:dwcfM3wy.net
>>439の言ってるLIGOのリサーチに協力したのはうんこFireProではなくXeon Phiなんだよね
http://www.hpcwire.com/off-the-wire/taccs-stampede-supercomputer-assists-ligo-research/

重力演算は1格子点あたり小数点以下3桁程度の精度があれば十分といわれる分野
Stampedeに載ってるKNCは除算ユニットは遅く逆数・逆数平方根命令の
有効桁は14ビットだ。
まあこんだけあればニュートン法すら要らないわけよ。
倍精度で分解能を上げて遅い倍精度に単精度(実効精度14ビット)で格子点を
大量に捌くほうがより正しいシミュレーションができる。

ニュートン法不要ってのはニタドリ=サンの受け売りだが

463 :,,・´∀`・,,)っ-○○○:2016/02/13(土) 18:42:17.05 ID:dwcfM3wy.net
14ビットは間違い。SkylakeXeonで使えるAVX-512Fのほうだね。

KNCのrcp23ps/rsqrt23psのスループットは23ビット。
つまり単精度の除算は乗算1回との合計2ステップで割り切りなしの十分な精度が得られる

464 :デフォルトの名無しさん:2016/02/13(土) 18:45:56.87 ID:vpwmEJlM.net
スレ違い

465 :,,・´∀`・,,)っ-○○○:2016/02/13(土) 18:48:25.54 ID:dwcfM3wy.net
倍精度必要論が否定されるから都合が悪いだけだろう?

重力演算のために長崎大がGeForce買いあさって作った激安スパコンだって
単精度特化仕様だったよ?
これもニタドリ=サンが協力している。古事記にも書いてある。

466 :,,・´∀`・,,)っ-○○○:2016/02/13(土) 19:06:49.99 ID:dwcfM3wy.net
ゴードンベル賞で2度の受賞を経験したニタドリ=サンをして
天文学分野のシミュレーションは半精度程度の分解能があれば十分だって言ってるんだよ

467 :デフォルトの名無しさん:2016/02/13(土) 19:49:28.20 ID:LMFsV4x8.net
でもGRAPEは6倍精度実装してるじゃん
天文学と一纏めにしてるけど連星とかブラックホールが近接するような場合は高い精度が要求されるよね
逆に宇宙の大規模構造とかだと桁増やすより分解能上げた方が精度上がるのかもしれないけど

468 :,,・´∀`・,,)っ-○○○:2016/02/13(土) 19:57:12.93 ID:dwcfM3wy.net
否定しない。
いずれにしてもどれも個人のパソコンに必要な要件ではない。
個人のパソコンのパーツを組み合わせて大規模演算ができるのはコストメリット的に重要だけど
個人のパソコンに倍精度が必要な理由の説明としては本末転倒です

469 :デフォルトの名無しさん:2016/02/13(土) 21:14:52.93 ID:EE+8Wdg+.net
結局自分じゃ使えもしないのに
倍精度倍精度連呼してるのが滑稽だってこった

470 :デフォルトの名無しさん:2016/02/14(日) 00:27:03.46 ID:cgGYXXdh.net
スレタイも読めないアホ

471 :,,・´∀`・,,)っ-○○○:2016/02/14(日) 00:51:54.56 ID:QIqkGWdy.net
スレタイに即した話題振ってくれよ

472 :デフォルトの名無しさん:2016/02/14(日) 00:57:10.67 ID:cgGYXXdh.net
お前が消えたらな

473 :,,・´∀`・,,)っ-○○○:2016/02/14(日) 00:57:39.60 ID:QIqkGWdy.net
お前が行くべきスレ(HSAスレ)に行けば平和になるよ

474 :デフォルトの名無しさん:2016/02/14(日) 01:39:56.33 ID:lXFnYTTq.net
AMDな人が来てCUDAの話無・CUDA使っていない奴の雑談スレになったな
AMDのGPGPUスレ過疎すぎでこっちにきたんだろうが

475 :,,・´∀`・,,)っ-○○○:2016/02/14(日) 02:02:42.36 ID:vcWFNaoW.net
そもそも初代CUDAの時期に倍精度なんてサポートされてなかったし
メインストリームのGeForceが倍精度強かった時代なんて一度もないのに
いつから馬鹿の一つ覚えの倍精度連呼が始まったやら

476 :デフォルトの名無しさん:2016/02/14(日) 07:18:27.73 ID:feLPD2f/.net
豚に真珠
団子に倍精度

477 :,,・´∀`・,,)っ-○○○:2016/02/14(日) 09:14:03.10 ID:vcWFNaoW.net
>>476の名前は団子っていうそうです

478 :デフォルトの名無しさん:2016/02/14(日) 09:20:16.22 ID:SumOf5e2.net
団子がいっぱい

479 :デフォルトの名無しさん:2016/02/14(日) 15:01:21.31 ID:LdUYpatK.net
そもそもCUDAは科学技術演算を必要とする人のスレなのにな
いつの間にか糞団子はゲームに必要かどうかに論点をすり替え

480 :,,・´∀`・,,)っ-○○○:2016/02/14(日) 16:23:41.37 ID:vcWFNaoW.net
> そもそもCUDAは科学技術演算を必要とする人のスレなのにな

意味が分からない

481 :,,・´∀`・,,)っ-○○○:2016/02/14(日) 16:26:10.17 ID:vcWFNaoW.net
CUDAでハローワールドも書けないレベルのnoobが気取ってみても
頭の悪さは隠せないよ

482 :デフォルトの名無しさん:2016/02/14(日) 16:42:03.99 ID:k6vnuBvm.net
cudaで今nvidia的にイチオシの用途がdlで、half性能が効いてくるという奴じゃないの?

483 :デフォルトの名無しさん:2016/02/14(日) 16:58:17.35 ID:MYivShEO.net
と言うよりGPGPU自体がDLバブルに乗っかってるからな
ボリュームゾーンに合わせた製品仕様になるのは当然の流れ

484 :,,・´∀`・,,)っ-○○○:2016/02/14(日) 17:32:35.33 ID:vcWFNaoW.net
バイセイドマンセー「俺がボリュームゾーンだ!俺のためのGPUを作れ!」

485 :,,・´∀`・,,)っ-○○○:2016/02/14(日) 17:54:26.87 ID:vcWFNaoW.net
DOE案件みたいな大口需要があるときだけ倍精度特化版作って
それ以外は民間需要重視でいくってのは間違いじゃないと思うよ

次のDOE案件はVoltaだ
逆に言うとそれまでは倍精度特化版は出ないということだな

486 :デフォルトの名無しさん:2016/02/14(日) 20:43:02.26 ID:feLPD2f/.net
団子うざい

487 :デフォルトの名無しさん:2016/02/14(日) 20:43:29.15 ID:feLPD2f/.net
スレちがい
きえろ

488 :,,・´∀`・,,)っ-○○○:2016/02/14(日) 20:45:40.73 ID:vcWFNaoW.net
認めろよ負け犬

お前らの需要は民間需要とみなされてないんだよ

489 :,,・´∀`・,,)っ-○○○:2016/02/14(日) 21:07:00.02 ID:vcWFNaoW.net
残念だけどGeForceに倍精度が必要な理由を説くには
ゲームなどの目的で使って一般ユーザーが必要であることは絶対必要な条件だ

まさかそんな単純な理屈もわからないのか?
だからお前は俺ごときに言い負かされてるんだよ

490 :デフォルトの名無しさん:2016/02/14(日) 21:17:16.56 ID:3MzGEHLi.net
でもdoeの評価アプリはほとんどが単精度なのだ

491 :デフォルトの名無しさん:2016/02/14(日) 21:20:27.80 ID:q4Y9hkYF.net
やっぱり次のスパコンはGPU入れてくるのかな。
CPUだけで今の100倍は難しいよね?

492 :,,・´∀`・,,)っ-○○○:2016/02/14(日) 21:20:35.19 ID:vcWFNaoW.net
Top500ランキングに使うLINPACKベンチは倍精度だからそれのためだけに必要なんだよ
ちなみにHPCGだと倍精度ユニットいくらあってももてあそぶから倍精度厨には逆風だね

493 :デフォルトの名無しさん:2016/02/14(日) 21:29:25.60 ID:q4Y9hkYF.net
maxwellが発売されて2年たつが、pascalはいつごろ発売になるのだろうか。

494 :デフォルトの名無しさん:2016/02/14(日) 21:30:32.20 ID:feLPD2f/.net
豚に真珠
団子に倍精度

495 :デフォルトの名無しさん:2016/02/14(日) 21:34:09.88 ID:3MzGEHLi.net
pascalは今年
voltaは来年

pascalは大きな変更になり
voltaは小改良

496 :デフォルトの名無しさん:2016/02/14(日) 21:39:33.62 ID:LdUYpatK.net
倍精度の必要性すら認めない奴がどうしてこのスレにいる?

497 :デフォルトの名無しさん:2016/02/14(日) 21:46:01.01 ID:3MzGEHLi.net
dlはもうeyerissの系統でいくんだろうな
機会学習はもう大きな需要が在るのわかってるから
専用設計のチップでも儲かるのが見えてる

gpuはある種汎用的なHPC向けになるんだろうな
pascalで階層型のスケジューラやレジスタファイルが実装されてると
そのコントローラー(こんぱいら)ようにcpuが搭載され
レンダリングはタイルになりそうだけど

498 :,,・´∀`・,,)っ-○○○:2016/02/14(日) 21:47:24.48 ID:vcWFNaoW.net
そんな人は一人もいませんよ?
消費者向けGPUに倍精度が必要みたいなアホなこと言う負け犬君を馬鹿にしてるだけですよ

499 :デフォルトの名無しさん:2016/02/14(日) 21:47:51.57 ID:VLtYVTYt.net
Geforceで科学技術計算なんてことあるの?
2秒間の壁や1週間も100%負荷で連続使用したら過熱して壊れそう。

500 :デフォルトの名無しさん:2016/02/14(日) 21:51:42.44 ID:k6vnuBvm.net
必要性もなにも倍精度演算自体は可能だろ。積和で単精度の1/32くらいの速度だけど。
それで不満な人間がCUDAにこだわる意味がわからん。
そもそもCUDA対応ハードで倍精度強かったのってfermiとkeplerの時期だけで、しかもコンシューマ向けで開放されたのもその極一部じゃない。

501 :デフォルトの名無しさん:2016/02/14(日) 21:52:57.52 ID:3MzGEHLi.net
それはfuryでもおなじだけどな

502 :,,・´∀`・,,)っ-○○○:2016/02/14(日) 21:53:10.10 ID:vcWFNaoW.net
倍精度が必要な人は必要らしくマイノリティ税を払って4桁ドルのTeslaを使えばよろしい

503 :,,・´∀`・,,)っ-○○○:2016/02/14(日) 22:08:24.09 ID:vcWFNaoW.net
防衛上の理由として

北朝鮮や中共がGeForceを買いあさって弾道計算に使われたら困るから
消費者向けGPUは倍精度を削るのは当然でしょう

504 :デフォルトの名無しさん:2016/02/14(日) 22:18:41.75 ID:k6vnuBvm.net
倍精度演算を単精度の1/4より速く実行するのは基本的に無駄なはずなんだよね。
keplerは別回路で使わなければ完全に無駄だったし、fermiの1/2にもからくりがあって、整数演算器の方に少し回路を付け足せば単精度性能を倍にできるのを抑えた感じ。
納入先との契約で倍精度性能は単精度の1/2にすることみたいな縛りでもあったのかね。

1/4にしないでもっとけちれば次は1/16になるのが自然
なのにmaxwellは1/32

505 :デフォルトの名無しさん:2016/02/14(日) 22:57:17.12 ID:MYivShEO.net
>>503
>防衛上の理由として

>北朝鮮や中共がGeForceを買いあさって弾道計算に使われたら困るから
>消費者向けGPUは倍精度を削るのは当然でしょう

中共とかなに時代錯誤なこと言ってんだよ
Nvidiaはファブレスで製造はTSMCだぞ
そもそも弾道計算にGPU要らんし

506 :,,・´∀`・,,)っ-○○○:2016/02/14(日) 23:02:24.40 ID:vcWFNaoW.net
今存在している政権を時代錯誤と言ってみたり台湾と中国の区別がつかなかったり
いろいろ論外すぎる

507 :デフォルトの名無しさん:2016/02/14(日) 23:28:08.25 ID:MYivShEO.net
>>506
いやいや、中共が買い漁るとか言ってるのが時代錯誤なんだよ
ココム時代かよ

スパコンの現状見て今更「弾道計算に使われたら困るからGPUから倍精度削りました」とか寝言としてもありえ無いぞ

508 :デフォルトの名無しさん:2016/02/14(日) 23:32:03.43 ID:MYivShEO.net
>>506
あ、そうそう
TSMCに限らず台湾メーカーは当然中国工場持ってるからな
中台の政治はアレだが経済はズブズブなんだよ

509 :,,・´∀`・,,)っ-○○○:2016/02/14(日) 23:34:42.85 ID:vcWFNaoW.net
その寝言で米国政府が天河1号Aおよび2号のパーツ供給打ち切る命令を下してりゃ世話無いわ

510 :デフォルトの名無しさん:2016/02/15(月) 00:10:01.72 ID:tk+f5azn.net
つーか今さらだよなぁ。
既に世界一のスパコン輸出した後で規制するとか、アメリカはアホなのか。

511 :デフォルトの名無しさん:2016/02/15(月) 00:38:07.27 ID:vFZf1/EN.net
>>509
お前それ反論になって無いぞ
もしかしてGeForceに倍精度のせないのはマジで米政府が関与してるとか思ってるわけ?
お前正気か?
もう少しまともな奴だと思ってたが買い被り過ぎだったようだな

512 :デフォルトの名無しさん:2016/02/15(月) 01:27:27.22 ID:WsLHcQ2x.net
弾道計算wwww
不安定なGPUなんか使うわけがないwwww
そんなものは化石CPUで十分

513 :デフォルトの名無しさん:2016/02/15(月) 06:50:35.29 ID:iMQPxQqI.net
2018年にかけて米国でknlとpascal,voltaでスパコンが更新されていくからな
天河はもう過去のものになる

日本はもう一番目指してないし

514 :デフォルトの名無しさん:2016/02/15(月) 12:37:26.72 ID:WsLHcQ2x.net
計算機なんて数増やせば良いだけだから単体性能よりコスパで1位を目指すべきだと思うんだが

515 :デフォルトの名無しさん:2016/02/15(月) 13:15:29.44 ID:GXDoYvGw.net
そんなん日本じゃ無理じゃん

516 :デフォルトの名無しさん:2016/02/15(月) 18:36:52.42 ID:jliXXPJr.net
>>514
なんもわかってないな
ノード数の2乗に比例してインターコネクトは複雑になる
なんのために大きなスパコンが必要だと思う?

莫大なメモリ空間がないとできないことがあるからだ

517 :,,・´∀`・,,)っ-○○○:2016/02/15(月) 19:35:35.81 ID:ZpISfAaX.net
>>513
そーは言ってもあの国はコンシューマ向けGPUかき集めてでもスパコン作るから
現に初代天河1号でそれやったし

中国のPCゲーム市場は拡大しててGPUメーカーにとってもおいしい市場だ
軍事転用の懸念から輸出規制かけられたらNVIDIAだって大損なわけよ
だから最初から倍精度ハードは載せない
その理屈は最低限理解してほしいのだけど・・・

518 :デフォルトの名無しさん:2016/02/15(月) 20:03:17.93 ID:dHmco+xc.net
そもそも倍精度はいらないって持論言ってなかった?
それなら軍事用途でも倍精度なしでいいってことだよね?
そうすると、中国はいくらでもGeForceを軍事転用して作れるんじゃない?

倍精度載せないのが軍事転用を防ぐためってのは無理がないか?

519 :,,・´∀`・,,)っ-○○○:2016/02/15(月) 20:06:18.36 ID:ZpISfAaX.net
もちろんそれが一番の理由だなんて言う理由はない
どうせ倍精度なんて使えてもそれこそ豚に真珠を与えるがごとき日曜プログラマの道楽のために
NVIDIAは会社を傾ける気はないのは確かだろう

520 :デフォルトの名無しさん:2016/02/15(月) 20:37:26.50 ID:dHmco+xc.net
ハイエンド以外はそうでしょうね。

でもハイエンドはTeslaとマスクを別にするほどメリットはないでしょう。
だからTeslaに搭載されている以上、ハイエンドにもつくだろうね。
ドライバや回路切断で無効化措置がとられるかもしれないけど。

521 :デフォルトの名無しさん:2016/02/15(月) 20:41:01.96 ID:dHmco+xc.net
GeForceに倍精度を載せないのはビジネス面からの理由で、
Teslaに倍精度が必要かどうかとはまた違う議論だよね

それからKeplar世代Teslaも最初1/12くらいだったのが1/3にまで上げられたのは
必要な人がいたからじゃないのかな。
4倍精度以上のライブラリがあることからも精度が必要な人はいると思うよ。

単品の精度はfloatでいいけど、累積誤差のせいで途中段階ではより高精度が必要という局面は多いんじゃないだろうか。
倍精度完全ゼロにしたらTeslaはこけると思う。

522 :デフォルトの名無しさん:2016/02/15(月) 21:09:32.48 ID:3Z78wnsj.net
Nvidiaが倍精度どころか単精度ですら要らないんじゃね?路線になった理由は明快
(AMDの)MantleがDirectX12とVulkanの取り込まれたから
ゲーム機は完全にAMD一色になったから、もはやゲームはAMD中心に動いている

全てのAAAゲームはCS機のローレベルAPIで組まれ、その成果をPCに持っていく形が定着した
従ってPCゲームは今までのように互換性や異種GPU間の翻訳を行うのをやめた
DirectX12はそこの所が根本的に違う

しかし団子はそこの理解がないから最初っから倍精度不要論をぶっていればまだかわいげがあったが、
ゲームに倍精度は不要だ!と言い出したのは、Pascalの仕様が明らかになってからw

それまでの団子は、NVはPascalに倍精度路線を復活させる!(キリッ
の一点張りだった

523 :,,・´∀`・,,)っ-○○○:2016/02/15(月) 21:12:20.04 ID:ZpISfAaX.net
> GeForceに倍精度を載せないのはビジネス面からの理由で、
> Teslaに倍精度が必要かどうかとはまた違う議論だよね

それは誰も否定してる人はいない

> それからKeplar世代Teslaも最初1/12くらいだったのが1/3にまで上げられたのは
> 必要な人がいたからじゃないのかな。

大型スパコン案件があったから。
Maxwell世代にはなくて、民間需要を探したら結局単精度しか需要が無かった

524 :デフォルトの名無しさん:2016/02/15(月) 21:22:31.09 ID:jCwjLRdK.net
団子>弾道計算には倍精度が必要!(キリッ

マジでアホ

525 :,,・´∀`・,,)っ-○○○:2016/02/15(月) 21:23:17.67 ID:ZpISfAaX.net
必要だけど?

526 :,,・´∀`・,,)っ-○○○:2016/02/15(月) 21:24:28.08 ID:ZpISfAaX.net
惑星探査機なんか発射時刻1秒のずれすら許されないレベル

527 :デフォルトの名無しさん:2016/02/15(月) 21:33:03.42 ID:PRVxDG3b.net
弾道計算といったら大砲の弾やせいぜい弾道ミサイルといったイメージ
人工衛星は軌道計算というのが一般的だろう

528 :デフォルトの名無しさん:2016/02/15(月) 21:34:44.35 ID:WsLHcQ2x.net
GPUはいらないけどな

529 :デフォルトの名無しさん:2016/02/15(月) 21:39:07.56 ID:iMQPxQqI.net

このhello worldも書けない倍精度バカは何が言いたいんだ

530 :,,・´∀`・,,)っ-○○○:2016/02/15(月) 21:45:08.13 ID:ZpISfAaX.net
スパコンは数増やせばいいとか言っちゃうレベルの超絶バカには理解できんだろう

531 :,,・´∀`・,,)っ-○○○:2016/02/15(月) 21:50:22.85 ID:ZpISfAaX.net
呼ばれてもいないAMDファンボーイが勝手にわめいてるだけでしょ

Async Shader(笑)なんてスパコンでは全く需要がないんですよ。
繰り返すけど、需要がないんですよ。

何千並列のGPUが動く環境ではそもそも同じGPUで複数スレッドを
動かす必要性そのものが疑問だし本当に別々のスレッドを多並列で動かしたい用途には
60コア240スレッドのXeon Phi向けの問題だったりする。帯短襷長。

532 :デフォルトの名無しさん:2016/02/15(月) 21:54:15.47 ID:dHmco+xc.net
>>523
>大型スパコン案件があったから。
Titanとかだよね。ということはやっぱりむこうの研究者もより精度がほしいってことなんだな。


>Maxwell世代にはなくて、民間需要を探したら結局単精度しか需要が無かった
そもそも民間にGPGPUの需要があるのかも疑問だな。
大学以外でほとんど導入してる事例を見聞きしたことがない。

F1や飛行機の気流計算とかには大規模サーバに積んでシミュレーションしたりしてるのかな?
あとは建築における風の影響とかさ。

普通は世代ごとにプログラミングとテストし直す手間考えるとCPU増設するよって考えに至りそう。

533 :デフォルトの名無しさん:2016/02/15(月) 22:24:29.68 ID:iMQPxQqI.net
>>522
pascalの仕様がいつ明らかになったんだ?

534 :デフォルトの名無しさん:2016/02/15(月) 22:34:24.26 ID:jCwjLRdK.net
>>526
>惑星探査機なんか発射時刻1秒のずれすら許されないレベル
その昔3ビットコンピュータの時代に米国は有人月探査をやってるんだが?
中共は弾道計算()にスパコンが必要なんだw

535 :,,・´∀`・,,)っ-○○○:2016/02/15(月) 22:38:59.79 ID:ZpISfAaX.net
月がいつ惑星になったんだ
的が大きすぎてスイングバイのタイミング計算も必要ないぞ

536 :デフォルトの名無しさん:2016/02/15(月) 22:44:09.45 ID:iMQPxQqI.net
月には本当に行ったのかね
よく帰ってこれたな

てかランディングよくできたな
よく月から離れられたな

537 :デフォルトの名無しさん:2016/02/15(月) 22:48:44.77 ID:iMQPxQqI.net
核開発はおいそれと実験できないので
シミュレーション主体だろうけど

538 :デフォルトの名無しさん:2016/02/15(月) 23:23:28.51 ID:jCwjLRdK.net
>>535
弾道計算がいつの間にか惑星探査に成るよりマシ
スウィングバイの計算ですらスパコンいらないのに弾道計算にスパコンが必要な根拠を早く示せよw

539 :デフォルトの名無しさん:2016/02/15(月) 23:27:02.18 ID:iMQPxQqI.net
それは使用者がどの程度の精度を求めるかってだけじゃね

キロか
メートルか
センチか
ミリか
マイクロか
ナノか

540 :デフォルトの名無しさん:2016/02/15(月) 23:33:23.73 ID:iMQPxQqI.net
ipadのdawソフトだって64bit floatで合成できるし
サンプリンレートだって96khzがつかえる

で、聞いて違いがわかるのかって話だわ

さすがに32khz(昔のrolandのdtm音源とかね)と44.1khzはわかるけど

541 :,,・´∀`・,,)っ-○○○:2016/02/15(月) 23:42:05.72 ID:ZpISfAaX.net
倍精度くんはDLで使われてる半精度の用途すら理解できてないと思うよ

542 :デフォルトの名無しさん:2016/02/15(月) 23:54:48.03 ID:6lA61DJG.net
科学技術計算で半精度が使えるのなんて、DLぐらいじゃねーの?
線形方程式を扱う問題は倍精度がないと使いもんになんないよ。
単精度で行けるのは、流体解析とかかな。

543 :デフォルトの名無しさん:2016/02/15(月) 23:58:33.47 ID:iMQPxQqI.net
必要な部分だけ倍精度で
後は単精度って言う混合精度が普通ですけどね

544 :デフォルトの名無しさん:2016/02/16(火) 00:11:11.75 ID:Rkm/CQ33.net
>>541
いいからお前は中共がスパコンで弾道計算()する根拠を示せよw
出来ないなら去れ

545 :,,・´∀`・,,)っ-○○○:2016/02/16(火) 00:16:10.17 ID:hr2Cmr1D.net
そこいちいち突っ込むなよ

↓この池沼レスに突っ込んだやつ何人いるよ

427 :デフォルトの名無しさん [↓] :2016/02/12(金) 22:41:27.77 ID:10CGBYPs (2/2)
今日の重力波観測にしたってあれは、理論屋が出したシミュレーションに従ってそれと同じデータを観測したわけだろ
そういうのが単精度/半精度で出せるわけねーだろ

546 :デフォルトの名無しさん:2016/02/16(火) 01:05:12.74 ID:zrbNTBh/.net
くだらないすれになってきたな。
CUDAだけに。

547 :デフォルトの名無しさん:2016/02/16(火) 01:07:09.51 ID:uizCIs9N.net
惑星探査機の打ち上げ時に1秒のズレが許されないのは、もし1秒のズレが
起こるとロケット側の打ち上げシーケンスはリアルタイムに変更出来ない以上、
生じたズレを探査機側でカバーする必要があり燃料を大量に消費するから

ロケット発射時の1秒分に相当するズレが軌道計算時の演算精度によって
生じると示されない限りは今回の話の流れで例として出す意味は無い

548 :デフォルトの名無しさん:2016/02/16(火) 01:22:51.47 ID:Rkm/CQ33.net
>>545
話を逸らすな糞団子
GPUに倍精度が載らない理由としてお前が妄想で持ち上げた米政府陰謀論はどう始末すんだよ
いつの間にか惑星探査の話に誤魔化そうとしてドツボに嵌ってるし
どうやらお前には虚言癖があるようだな
それ精神疾患の初期症状だぞ

549 :デフォルトの名無しさん:2016/02/16(火) 05:14:07.98 ID:JyLDDdd2.net
こいついいかげんあたまわりーな
geforceにいらねぇってだけで
どこでgpuにいらねぇってかいてんだ

トットトキエロ無関係なamd信者

550 :デフォルトの名無しさん:2016/02/16(火) 08:27:02.86 ID:TSHTNtoJ.net
491 名前:,,・´∀`・,,)っ-○○○ [sage] :2016/02/14(日) 22:08:24.09 ID:vcWFNaoW
防衛上の理由として

北朝鮮や中共がGeForceを買いあさって弾道計算に使われたら困るから
消費者向けGPUは倍精度を削るのは当然でしょう

551 :デフォルトの名無しさん:2016/02/16(火) 08:39:42.99 ID:O+KKJC7C.net
missile guidance
コピペしてあげる

http://www.rugged.com/sites/default/files/High%20Perfomance%20GPGPU%20for%20Embedded%20Systems.pdf
http://www.nrl.navy.mil/itd/imda/sites/www.nrl.navy.mil.itd.imda/files/pdfs/HiFiRealtimeASCMModelingGPU.pdf


Accelerating Binary Genetic Algorithm Driven Missile Design Optimization
Routine with a CUDA Coded Six Degrees-Of-Freedom Simulator

https://etd.auburn.edu/bitstream/handle/10415/4900/BentonDaniel_Thesis_Fall2015.pdf

552 :デフォルトの名無しさん:2016/02/16(火) 08:44:44.70 ID:5qdf7tTQ.net
あたまわりーなっていう書き込みがあたまわるそうw

553 :デフォルトの名無しさん:2016/02/16(火) 12:24:44.18 ID:r3FuaOqG.net
>>549
てめえのケツは文体から丸見えなんだよ、糞団子!

554 :デフォルトの名無しさん:2016/02/16(火) 13:13:36.31 ID:Rkm/CQ33.net
>>551
どこに弾道計算()って書いてあるんだ?
今更必死になって資料探してるのが笑える
糞団子www

555 :デフォルトの名無しさん:2016/02/16(火) 17:01:16.79 ID:O+KKJC7C.net
missile guidanceって書いてんですけど
本当にアホなんだ

556 :デフォルトの名無しさん:2016/02/16(火) 19:19:35.76 ID:Rkm/CQ33.net
>>555
ミサイル誘導と弾道計算()をゴッチャにして無いか?

557 :デフォルトの名無しさん:2016/02/16(火) 19:31:16.10 ID:ehtVDEti.net
お前らってCUDAスレでミサイルの話したいの?
うざいよ

558 :デフォルトの名無しさん:2016/02/16(火) 19:32:32.16 ID:Got2320i.net
団子が消えれば平和になる

559 :デフォルトの名無しさん:2016/02/16(火) 19:37:49.67 ID:vQzfh9to.net
そもそも米国初のスパコンは300flopsで
弾道計算目的で作られたわけですけどね

560 :デフォルトの名無しさん:2016/02/16(火) 19:46:46.20 ID:Got2320i.net
団子うざい

561 :デフォルトの名無しさん:2016/02/16(火) 19:52:40.02 ID:JyLDDdd2.net
倍精度バカが消えればいいだけ

562 :デフォルトの名無しさん:2016/02/16(火) 19:52:56.44 ID:Rkm/CQ33.net
>>559
だからなに?
300flopsでいいならatomでも使えば?

弾道ミサイルと誘導ミサイルの区別もつかない知障が恥の上塗りしてどうする

563 :デフォルトの名無しさん:2016/02/16(火) 19:53:37.32 ID:JyLDDdd2.net
相変わらず
病気ですかw

564 :デフォルトの名無しさん:2016/02/16(火) 19:55:56.44 ID:Rkm/CQ33.net
>>563
なんだよネタ切れか糞団子
早く弾道計算()の根拠を示せよwww

565 :,,・´∀`・,,)っ-○○○:2016/02/16(火) 21:31:21.33 ID:n4dpDB+H.net
ID:Rkm/CQ33
ひまだねこいつ
Teslaなんて買えるご身分じゃないことはわかったよ

566 :デフォルトの名無しさん:2016/02/16(火) 21:46:16.04 ID:JyLDDdd2.net
c++ampの死亡がよほど悔しかったと見える

567 :デフォルトの名無しさん:2016/02/16(火) 21:52:57.09 ID:Rkm/CQ33.net
>>565
お前さぁ何で個人ユース前提で話進めてんの?貧乏F蘭学生か?
悪いけどプライベートでゴリゴリコード書かんから家ではオンボードチップのみだよ

んなこといいから早く弾道計算()のソース探して来いや

568 :,,・´∀`・,,)っ-○○○:2016/02/16(火) 21:54:13.47 ID:n4dpDB+H.net
AMDの株価がまたダダ下がりしてるよ
年内に潰れるんじゃないの?(煽

569 :デフォルトの名無しさん:2016/02/16(火) 22:55:41.72 ID:Rkm/CQ33.net
>>568
お前、俺がAMD信者だと思いたいわけ?
残念だが単なるツールに思い入れは無い
そもそもプライベートではインテルHDだしな

ぶっちゃけ、AMDでもNVでも倍精度でも単精度でもどうでもよろしい

糞団子がおかしな事言ってるから突っ込んでるんだよ
さぁ話を逸らさず、早く弾道計算のソース探して来いやwww

570 :デフォルトの名無しさん:2016/02/16(火) 22:59:58.46 ID:r3FuaOqG.net
結局Asyncとか煽ってたのは団子だよ
そして株価ガーとまたぞろ論破された悔しさから関係ないバカッターぶり

571 :デフォルトの名無しさん:2016/02/16(火) 23:03:30.71 ID:JyLDDdd2.net
おまえだろw

572 :デフォルトの名無しさん:2016/02/16(火) 23:04:56.35 ID:r3FuaOqG.net
糞団子は及びじゃねーんだよ
倍精度が嫌なら自作板帰れや

573 :,,・´∀`・,,)っ-○○○:2016/02/16(火) 23:19:32.08 ID:n4dpDB+H.net
Async(笑)はお呼びじゃねーから

574 :,,・´∀`・,,)っ-○○○:2016/02/16(火) 23:22:10.95 ID:n4dpDB+H.net
倍精度CUDAでAMDの倒産時期のシミュレーションをしようず

575 :デフォルトの名無しさん:2016/02/16(火) 23:55:31.06 ID:TSHTNtoJ.net
この糞団子って奴はNV信者なのか?
かなりキショいな

576 :デフォルトの名無しさん:2016/02/16(火) 23:58:08.83 ID:Rkm/CQ33.net
>>574
お前、先にやる事あんだろ
早く弾道計算()のソース探して来いや
糞団子

577 :デフォルトの名無しさん:2016/02/17(水) 03:31:12.34 ID:0fWAF1mS.net
amd信者はスレのレベルを下げるの上手だよな
どこでも

578 :デフォルトの名無しさん:2016/02/17(水) 07:30:57.92 ID:rf0k3qKD.net
団子うざい消えろ

579 :デフォルトの名無しさん:2016/02/17(水) 07:57:37.34 ID:VmCK2l0E.net
お前何なの?
団子団子団子って
この固ハン好きなの?

580 :デフォルトの名無しさん:2016/02/17(水) 09:30:58.37 ID:rYEbraru.net
団子を知らんなんてもぐりだな。

581 :デフォルトの名無しさん:2016/02/17(水) 12:25:17.76 ID:OFL0xTOo.net

sssp://o.8ch.net/7vw7.png

582 :,,・´∀`・,,)っ-○○○:2016/02/17(水) 21:53:22.36 ID:vQUlaZXp.net
だんごさんはアイドルだからな

583 :デフォルトの名無しさん:2016/02/17(水) 22:38:37.14 ID:ftw2nvyT.net
お、おう

584 :デフォルトの名無しさん:2016/02/18(木) 00:59:56.44 ID:yA7sr9oe.net
507 :,,・´∀`・,,)っ-○○○:2016/02/15(月) 20:06:18.36 ID:ZpISfAaX
もちろんそれが一番の理由だなんて言う理由はない
どうせ倍精度なんて使えてもそれこそ豚に真珠を与えるがごとき日曜プログラマの道楽のために
NVIDIAは会社を傾ける気はないのは確かだろう








団子いいこと言うな、その通りだよ
お前ごときが倍精度の存在意義なんかわかりゃしないんだから
そのままここから消えろ

585 :デフォルトの名無しさん:2016/02/18(木) 01:34:33.83 ID:BdjwVjbv.net
人間の脳細胞も半精度

586 :デフォルトの名無しさん:2016/02/18(木) 15:31:31.41 ID:k3R63z0a.net
アンチの方が邪魔で迷惑というのは、嫌儲や嫌韓と変わらんな。

587 :デフォルトの名無しさん:2016/02/18(木) 20:51:58.59 ID:8FWPXGjX.net
>>586
団子ははっきり言ってやらんと分からんアスペだから

588 :デフォルトの名無しさん:2016/02/18(木) 22:55:07.89 ID:yHWNW4Hi.net
確実に言えることは
こいつはCUDAより団子のほうが
興味があるようだってこと
CUDAスレなのにな
迷惑だから他でやって欲しい

589 :デフォルトの名無しさん:2016/02/18(木) 23:48:14.62 ID:dPaFikXI.net
>>588
お前が一番しつこいよ
消えろ

590 :デフォルトの名無しさん:2016/02/19(金) 12:26:53.00 ID:3s8ITFfM.net
団子はインテルNVマンセー馬鹿に過ぎない
Fermiの時代は倍精度の必要性を謳ってたのまた団子
現在倍精度不要論をぶってるのはこいつが工作員である証拠
くだスレにはまったく不要

591 :デフォルトの名無しさん:2016/02/19(金) 18:46:26.08 ID:ktnruegg.net
>>587
団子はいくら言っても分からないようだから、そろそろ諦めてくれないか。
邪魔だし迷惑。

団子だけならNGできるんで、団子たたきはやめて、キッチリ完全スルーしてくれ。

592 :デフォルトの名無しさん:2016/02/19(金) 19:43:08.21 ID:3s8ITFfM.net
>>591
>、団子たたきはやめて、キッチリ完全スルーしてくれ。

NGだけなら簡単だが、こいつは倍精度を否定してるんだよ
そして名無しで煽ってるから問題だろうが

593 :デフォルトの名無しさん:2016/02/20(土) 01:44:55.38 ID:C1beyHUM.net
病人乙

594 :,,・´∀`・,,)っ-○○○:2016/02/20(土) 02:13:53.70 ID:yfJQw59R.net
俺がこのスレで名無しになったことなんて1度たりともない

595 :,,・´∀`・,,)っ-○○○:2016/02/20(土) 02:18:16.51 ID:yfJQw59R.net
一般消費者向けのGPUで倍精度の性能は必要ないとしか言ってないんだけどな俺は
なぜなら、一般消費者の用途で倍精度の性能が必要でないからだ
トートロジーを並べてるだけだけどこれは普遍の真理。


倍精度特化のTeslaが使いたい人は使えばいい
だからこそなおさらGeForceが倍精度に特化しなければいけない理由はない
いつ倍精度そのものを否定したんだ?

596 :,,・´∀`・,,)っ-○○○:2016/02/20(土) 02:22:37.26 ID:yfJQw59R.net
ドァンゴが、午前2:22くらいをお知らせします

597 :デフォルトの名無しさん:2016/02/20(土) 06:16:50.67 ID:2KEvBzOT.net
Teslaがいつ倍精度に特化したって?

598 :デフォルトの名無しさん:2016/02/20(土) 08:36:03.80 ID:deWWtRHc.net
>>595
はいはい
一般消費者向けのGPUから倍精度が削除されたのは米政府の陰謀なんだろw

お薬増やしおきますね〜

599 :デフォルトの名無しさん:2016/02/20(土) 08:42:57.95 ID:wJmoGGP6.net
お前のGPGPUプロジェクトが
どのように許容誤差見積を出して
倍精度を必要とそっちを語った方が
反論になるだろう
出せ

600 :,,・´∀`・,,)っ-○○○:2016/02/20(土) 09:07:06.30 ID:mQDXSMnA.net
>>597
Teslaにも倍精度に特化してないモデルもある
倍精度が強いのはあくまで「スパコン用のTesla」だ
それの流用版のGeForceやQuadroも副次的に倍精度が強かったこともあったが
GeForceに倍精度の需要があったからではない

GeForceで倍精度が速くないと困るとか言ってる手合いはろくに研究予算もつかない
ゴミ研究者かなんかだと思ってるが
(そんなものに拘ってるからろくな論文が書けないんだろ)

601 :デフォルトの名無しさん:2016/02/20(土) 09:53:53.93 ID:gxBCXYT2.net
>>600
>GeForceで倍精度が速くないと困るとか言ってる手合いはろくに研究予算もつかない
>ゴミ研究者かなんかだと思ってるが
おいおい、GeForceは一般消費者向けが前提じゃなかったのか?
糞団子は論点ズレまくりでまともに議論が噛み合ってない

602 :,,・´∀`・,,)っ-○○○:2016/02/20(土) 10:17:55.46 ID:mQDXSMnA.net
だから学校から支給される予算じゃTeslaが買えないからGeForce使うしかないんでしょ

603 :,,・´∀`・,,)っ-○○○:2016/02/20(土) 10:18:51.16 ID:mQDXSMnA.net
あるいは赤ポスにつけなかったおちこぼれか

いずれにしても「一般」消費者でありはしない

604 :,,・´∀`・,,)っ-○○○:2016/02/20(土) 11:09:20.85 ID:mQDXSMnA.net
所詮は自分が欲しいかどうかだけが基準点でもっと大きな市場のニーズを
理解できないアフォでしょう

大学院重点化の弊害ですね
就活失敗したようなレベルのゴミを研究室に引きこもらせたら
ますます世間知らずをこじらせるのも道理

605 :,,・´∀`・,,)っ-○○○:2016/02/20(土) 11:18:36.93 ID:mQDXSMnA.net
論文博士という日本独自の制度もたいがいだがな
3年間も通って単位取得だけしかできず学校を放逐されたゴミにも
なまじ希望を与えるからタチが悪いというか

606 :デフォルトの名無しさん:2016/02/20(土) 12:50:45.19 ID:kmGvjPZb.net
,,・´∀`・,,)っ-○○○NGですっきり

607 :デフォルトの名無しさん:2016/02/20(土) 13:08:52.37 ID:kmGvjPZb.net
>>601
糞団子は論点をずらすと言うより、負け犬になるといつも違う話をする&名無しでスレ汚しだから
NGだけでは駄目なんだよ

本当はDX12でNVがハブられた事実を認めたくないために架空のでっち上げ話をしてる
その証拠にMaxwell世代以前のNVはニタドリサン(笑い)の話をだして市販のNVGPUが大学研究機関
に納入された事を自慢してたからな

こいつは単なるアンチAMDのステマ部隊

454 :,,・´∀`・,,)っ-○○○:2016/02/13(土) 19:06:49.99 ID:dwcfM3wy
ゴードンベル賞で2度の受賞を経験したニタドリ=サンをして
天文学分野のシミュレーションは半精度程度の分解能があれば十分だって言ってるんだよ

453 :,,・´∀`・,,)っ-○○○:2016/02/13(土) 18:48:25.54 ID:dwcfM3wy
倍精度必要論が否定されるから都合が悪いだけだろう?

重力演算のために長崎大がGeForce買いあさって作った激安スパコンだって
単精度特化仕様だったよ?
これもニタドリ=サンが協力している。古事記にも書いてある。

608 :デフォルトの名無しさん:2016/02/20(土) 13:46:11.25 ID:AOSmisIg.net
>>600
特化の意味わかる?
単精度の1/3の速度じゃ特化じゃないから

609 :デフォルトの名無しさん:2016/02/20(土) 13:53:58.49 ID:T6EctyCF.net
特化じゃね。
1/4がイーブン

610 :デフォルトの名無しさん:2016/02/20(土) 15:21:16.14 ID:XuC13l9f.net
団子さんにコンプレックス持ってる病人がいるなw

611 :,,・´∀`・,,)っ-○○○:2016/02/20(土) 15:32:40.26 ID:mQDXSMnA.net
ただのAMDファンボーイだから
そもそもAMDはCUDAが使えないしCPUもAVXが半速のゴミしか出せないので
科学技術方面では全く役に立ちませんよ

612 :,,・´∀`・,,)っ-○○○:2016/02/20(土) 15:35:44.85 ID:mQDXSMnA.net
価格の安いコモディティ製品本来の用途外に流用するのがGPGPUの始まり
用途外を前提に設計しろなんてのは片腹痛い話ですよ

613 :,,・´∀`・,,)っ-○○○:2016/02/20(土) 15:50:28.63 ID:mQDXSMnA.net
ちなみに仮数の単精度は24ビット、倍精度は53ビット
積和ユニットのの複雑度は仮数のビット数の二乗にほぼ比例するので
実際には倍精度積和ユニットの実装コストは単精度の5倍よりも多い

614 :デフォルトの名無しさん:2016/02/20(土) 15:52:58.65 ID:AOSmisIg.net
>>609
倍精度特化じゃないCPUが1/2
イメージ的にはこれで普通

特化って言ったら単精度演算器を持たない、昔ながらのスーパーコンピューターみたいなやつ

615 :,,・´∀`・,,)っ-○○○:2016/02/20(土) 16:03:04.79 ID:mQDXSMnA.net
先に否定してるのにアホか

616 :デフォルトの名無しさん:2016/02/20(土) 16:14:51.99 ID:T6EctyCF.net
>>614
要は技術を知らないバカが無謀な要求をしていると自白しているわけだな。

そもそもCPUは倍精度特化で、単精度は搭載している回路の半分だけ利用しておまけでつけているくらいの勢い。
正確には倍精度以上から降りてきたという方が正しいような気もするが。

617 :デフォルトの名無しさん:2016/02/20(土) 16:19:59.15 ID:XuC13l9f.net
うん、じゃCPU使ってなよ病気の人
CUDA関係ないからもう来ないでね

618 :,,・´∀`・,,)っ-○○○:2016/02/20(土) 16:47:44.25 ID:mQDXSMnA.net
逆に言うと倍精度をサポートしなければ同じトランジスタの実装コストで
5倍以上の単精度ユニットを実装できるということ

それがCPUとは別方向で進化してきたGPUの速さの根源
それを否定するのはGPUを否定するようなもの

619 :デフォルトの名無しさん:2016/02/20(土) 16:51:35.52 ID:T6EctyCF.net
>>618
んな事はねぇよ。
回路を流用すれば1/4や1/16での
倍精度演算は殆ど追加コスト無く出来る。それを削ったからといって増やせる単精度性能は20%も無い。

まあ、これが大きいから1/4でなく1/16を選択するのが通常なのだけど。

620 :デフォルトの名無しさん:2016/02/20(土) 16:53:25.90 ID:XuC13l9f.net
もうくんなつったろ
病人

621 :,,・´∀`・,,)っ-○○○:2016/02/20(土) 16:59:15.42 ID:mQDXSMnA.net
>>619
>>618のいうサポートっていうのはフルスピードの倍精度っていう意味
もちろん単精度を複数回(or複数ユニット)回して倍精度を実現してもいいが
それが現状のMaxwellなどの在り様なわけで

622 :デフォルトの名無しさん:2016/02/20(土) 17:45:22.65 ID:deWWtRHc.net
うわさではsmxに1個だけdpがあるとかないとか

623 :,,・´∀`・,,)っ-○○○:2016/02/20(土) 17:59:22.63 ID:mQDXSMnA.net
あったとしてもどういう役回りかわからんでしょ

ぶっちゃけると単精度で分割処理するとはいっても実際には
倍精度フォーマットをデノーマライズして複数の単精度データに変換するハードウェアと
演算結果を組み立てて倍精度フォーマットに書き戻すハードウェアも必要だからね
そのビットフィールドの変換をソフトで処理したら1/16すら出ない

624 :デフォルトの名無しさん:2016/02/20(土) 18:20:08.42 ID:T6EctyCF.net
本来遅いハードでもdpどころか64bit整数の乗算も1/9で済むはずなのにそこはサボって24bit乗算器を16bitとしてしか利用していないんだよな。

625 :デフォルトの名無しさん:2016/02/20(土) 19:23:23.87 ID:C1beyHUM.net
挙動の違いがあるとまずいから
同じユニット使ってるとか言う

626 :デフォルトの名無しさん:2016/02/20(土) 20:26:03.16 ID:kmGvjPZb.net
>>619
AMDのGCNアーキテクチャーのGPUは複数のコアを使うと倍精度の演算が出来るように設計してある
それがPS4/XBOに搭載されたものだから、ゲームは非常にGPGPUに強いんだよな
DX12とVulkanはGCNで最大性能を発揮できるように設計されたローレベルAPI

これが怖いからMaxwellは半精度FP16GPUになった
描画に特化してGPGPUが弱い

627 :,,・´∀`・,,)っ-○○○:2016/02/20(土) 20:39:18.95 ID:mQDXSMnA.net
誰も使わないゴミの話に興味ないよ

628 :デフォルトの名無しさん:2016/02/21(日) 00:09:39.56 ID:Qg7TSliE.net
>>626
ここはCUDA(言語)スレでGPGPUスレではない
AMDのGCNの宣伝したいなら、いまAMDはCUDAもある程度サポートしているらしいから、
AMDでCUDAしたときのベンチぐらい載せて宣伝してくれないか?
GPGPUのすばらしいぞ宣伝ならここでなくGPGPUスレでやれ

629 :,,・´∀`・,,)っ-○○○:2016/02/21(日) 00:46:36.86 ID:qKVvfwew.net
HSA総合スレを盛り上げてやれよ
プログラムのプの字も書けないゴミには無理か?

630 :デフォルトの名無しさん:2016/02/21(日) 01:26:54.56 ID:fTBqyn4A.net
>>629
ここはディープラーニングスレじゃねーぞ糞団子

631 :デフォルトの名無しさん:2016/02/21(日) 01:51:21.48 ID:uPvCsAh0.net
AMDは早くCUDAに対応しろ。

632 :デフォルトの名無しさん:2016/02/21(日) 02:47:38.75 ID:0MRjXIaU.net
>>613
乗算の回路規模なんてぜんぜん大したこと無いって言ってなかった?

633 :,,・´∀`・,,)っ-○○○:2016/02/21(日) 02:54:22.04 ID:gnD1Eicx.net
>>632
俺は言った覚えはないがな

634 :,,・´∀`・,,)っ-○○○:2016/02/21(日) 02:55:38.55 ID:gnD1Eicx.net
>>630
プログラム書けないクソボケが居座る板でもないぞ
DQNのAMDファンボーイは自作PC板で妄想垂れ流してろクソボケ

635 :,,・´∀`・,,)っ-○○○:2016/02/21(日) 02:57:56.81 ID:gnD1Eicx.net
そもそもAMDのあれはCUDAを実行できるという理解は正しくない
CUDAのCソースをOpenCLに変換するトランスレータを作りましたという話で
PTXを実行できる環境を作るという話ではない

636 :デフォルトの名無しさん:2016/02/21(日) 11:51:35.77 ID:YDVcjdw/.net
>>634
>プログラム書けないクソボケが居座る板でもないぞ

ここお笑いですか?糞団子

637 :,,・´∀`・,,)っ-○○○:2016/02/21(日) 11:57:22.58 ID:gnD1Eicx.net
倍精度連呼君は倍精度を使って何をやるのかすら提示してないよね

638 :,,・´∀`・,,)っ-○○○:2016/02/21(日) 11:58:40.76 ID:gnD1Eicx.net
>>636
AMDファンボーイはプログラムを書いたこともないから
AMDの開発環境の圧倒的なひどさを知らんのですよ
知識さえあればNVIDIA一択になる理由がわかる

639 :デフォルトの名無しさん:2016/02/21(日) 12:15:14.37 ID:MzI2quQP.net
>>633
おまえの偽物か?
態度はおまえそのものだったけど

640 :デフォルトの名無しさん:2016/02/21(日) 12:19:33.63 ID:MzI2quQP.net
>>637
いろいろと書かれてるのに、すべてお前が一般人は使わないと決めつけてスルーしてるだけ
プログラム板のCUDAスレッドなんだから一般人とは母集団が違うのは当たり前なんだが

お前が不要で、一般人の9割が不要でもこのスレ的には関係ない

641 :デフォルトの名無しさん:2016/02/21(日) 12:21:46.08 ID:hql2OPnW.net
>>637
レイトレなんかどうだい?

642 :,,・´∀`・,,)っ-○○○:2016/02/21(日) 12:33:02.90 ID:gnD1Eicx.net
AMDのGPUは母集団そのものに入ってない
その点は理解してくれ

643 :,,・´∀`・,,)っ-○○○:2016/02/21(日) 12:37:43.18 ID:gnD1Eicx.net
AMD語りはこっちへ

HSA総合スレ【part 3】
http://peace.2ch.net/test/read.cgi/tech/1400582192/

644 :デフォルトの名無しさん:2016/02/21(日) 12:47:19.67 ID:bDXYj0yt.net
だれも倍精度不要なんて書いてないのにな。
倍精度特化がコンシューマ向けには必要無いと言うだけで。

645 :,,・´∀`・,,)っ-○○○:2016/02/21(日) 12:56:20.84 ID:gnD1Eicx.net
倍精度は必要な人は必要だけどAMDがこのスレに不要

646 :デフォルトの名無しさん:2016/02/21(日) 12:58:04.21 ID:YDVcjdw/.net
>>644
てめえはすぐに論破されると単発で煽りやがる
こういう奴だからこそこっちは不必要にNGだけでなく相手をしないといけないんだよ馬鹿野郎!

コテならコテだけで通せ!糞団子!

それから、NVがこれからGPGPUを捨てる根拠となるソースだ
実際にここで科学技術演算をされてらっしゃる皆さんもご覧になった方がいい↓
http://camera-pc.com/?p=578

結局これもCS機をAMDが独占したためなんだよな

647 :,,・´∀`・,,)っ-○○○:2016/02/21(日) 13:15:26.28 ID:gnD1Eicx.net
ばか?

648 :,,・´∀`・,,)っ-○○○:2016/02/21(日) 13:28:33.48 ID:gnD1Eicx.net
科学技術計算でAMDのGPUが上げた実績なんてないし
NVIDIAがHPCを重視する姿勢にも変わりはない

そもそもMaxwell世代に大型のスパコン案件が無かったから倍精度特化版を作ってないだけで

649 :,,・´∀`・,,)っ-○○○:2016/02/21(日) 14:11:49.09 ID:gnD1Eicx.net
ちなみにその個人ブログの主は科学技術計算に対してあまりに無知でお話にならない
ただカタログスペックのFLOPS数値を上げてヨシとするものではないのだわ

大規模システムはノード間のデータ転送帯域がものすごい重要で
NVLinkもその一環

AMDはカタログスペックありきで中身が無いし
実際2017〜18年の米国大型スパコン案件を何一つとして獲得できてない

650 :デフォルトの名無しさん:2016/02/21(日) 14:17:28.22 ID:YDVcjdw/.net
http://ascii.jp/elem/000/001/046/1046956/index-3.html
>Keplerの世代では倍精度浮動小数点のサポートの有無がこれにあたったが、
>Pascalはこの点ではMaxwellを継承しており、
>倍精度浮動小数点の性能は非常に低いと思われるので、ここでの差別化は難しい。

Pascalはここのスレ住人にとっては大変残念な事になるだろうな

その理由は先述したとおり、AMD準拠のDirectX12が策定された事でゲーム用GPUでNVは必死になって
電力効率の優位で喰らいつこうとしているためで描画特化でDX12世代に必須になるGPGPUを弱体化させた
トレードオフがある

倍精度とNVの関係は残念ながら離婚前の別居状態のようなさめた状態

651 :,,・´∀`・,,)っ-○○○:2016/02/21(日) 14:23:54.76 ID:gnD1Eicx.net
相変わらず知恵おくれだねえ
その記事を読んでもPascalの倍精度特化版が存在しないということは読み取れないがね

大型案件がつけばMaxwellの倍精度特化版も出す用意はあったくらいだし
少なくともPascalには客がついている

652 :,,・´∀`・,,)っ-○○○:2016/02/21(日) 14:35:55.03 ID:gnD1Eicx.net
倍精度の性能はスパコンでは今後も重要だけど
足回りの性能に見合わないほどのカタログスペックが必要かと問われれば
「必要ない」のが現実なわけで。

足回りの強化もなしにただ倍精度ユニットだけ並べておけばFLOPS数が稼げる
LINPACKベンチの実用性に疑問符が付くご時世ですからね
http://news.mynavi.jp/articles/2014/12/25/nvidia_coral/

653 :,,・´∀`・,,)っ-○○○:2016/02/21(日) 14:50:22.35 ID:gnD1Eicx.net
AMDが無様な全敗を喫した2017-18年の案件はDOEではPre-Exa世代という位置づけで
Exaにむけたスケーラビリティのための足回りの

IntelのOmni-Pathしかり、選定されたメーカーの製品には選定されるだけの裏付けがある
AMDにはインターコネクトに対して2018年にただちに用意できる対案が何もない。
そのスパコンの選考がとっくに終わってからこれから倍精度強化だとか
何も理解してないというか既に周回遅れ。

654 :デフォルトの名無しさん:2016/02/21(日) 15:18:31.73 ID:igZD1LUA.net
病気の人は倍精度特化のcpu使うって宣言してんだから
関係のないcudaスレにあらしにくんなよ

655 :,,・´∀`・,,)っ-○○○:2016/02/21(日) 15:30:43.09 ID:gnD1Eicx.net
Polarisは結局スパコンのデザインウィンを未だ1件たりとも取れてないんだよな
全てが無駄だったね

656 :デフォルトの名無しさん:2016/02/21(日) 15:31:01.75 ID:VEySITtF.net
野球ファンがどっちの贔屓チームの方が凄いか喧嘩してるようなアホらしさw

657 :,,・´∀`・,,)っ-○○○:2016/02/21(日) 15:40:19.39 ID:gnD1Eicx.net
たとえるなら阪神ファンがオフシーズンに東京ドームに居座って六甲颪を大合唱するレベルの
あつかましさ

658 :デフォルトの名無しさん:2016/02/21(日) 15:59:16.02 ID:ksxAl9BA.net
>>646
勝手にくそ団子と同一視するな。
不愉快だ。

659 :デフォルトの名無しさん:2016/02/21(日) 19:49:31.23 ID:YDVcjdw/.net
>>658
お前も糞の自覚はあるんだな、糞団子

660 :,,・´∀`・,,)っ-○○○:2016/02/21(日) 20:00:48.09 ID:gnD1Eicx.net
うんこくってる時にカレーの話はやめてください

661 :デフォルトの名無しさん:2016/02/21(日) 20:37:09.44 ID:zsQMik7a.net
小学生かよ…

662 :デフォルトの名無しさん:2016/02/21(日) 21:06:17.70 ID:igZD1LUA.net
米国のエクサスケールではcuda使わないんだけどね

663 :デフォルトの名無しさん:2016/02/21(日) 22:12:15.14 ID:gJEqj33V.net
http://www.livevolume.com/?page_id=14&lang=en
このソフト動かしたいんだけど、nvidiaのカードが必要なんですか?
すいません、プログラムのプの字も知らない初心者です
pentium N3700でGPUがintel graphicなんですけど
やっぱりこの環境で動かすことはできないのでしょうか…
現状では「GLSL compile error」と出て描画ができません
もしスレ違いな質問だったら本当にごめんなさい

664 :デフォルトの名無しさん:2016/02/21(日) 23:09:10.02 ID:Qg7TSliE.net
>>663
Minimum system requirementsにNvidiaとあるし、
そして、実際に動かないとなるとnvidiaつけるしかないだろ

665 :,,・´∀`・,,)っ-○○○:2016/02/22(月) 02:03:02.55 ID:XUbrDPNF.net
果たしてそのマシンにGPUなんてつけられるだろうか?
ノートならG-Tuneあたりのゲーミングノート買うのが一番手ごろじゃなかろうか
(メーカー製ノートでもGeForce搭載機はあんまり見かけない)

666 :,,・´∀`・,,)っ-○○○:2016/02/23(火) 17:44:18.03 ID:U0HFk1NZ.net
スパコン案件の有無が倍精度版の有無を決めるというのは間違いないようで

NVIDIA Pascal based GP100 GPU to boast of 12TFLOPS SP & 4 TFLOPS DP performance
http://vr-zone.com/articles/nvidia-pascal-based-gp100-gpu-boast-12tflops-sp-4-tflops-dp-performance/106203.html

とりあえずTesla購入予定の方は何も心配いらないということです
悔しがるのはTeslaが買えない貧乏研究者とAMD厨だけでいいですよ

667 :デフォルトの名無しさん:2016/02/23(火) 18:53:40.49 ID:NTXFP2zz.net
研究者しか倍精度を使わないと思ってるところが団子クオリティー

668 :,,・´∀`・,,)っ-○○○:2016/02/23(火) 19:57:44.93 ID:U0HFk1NZ.net
↑ね、 この負け犬クオリティ

669 :,,・´∀`・,,)っ-○○○:2016/02/23(火) 19:59:57.59 ID:U0HFk1NZ.net
GeForceは個人用のGPUであって倍精度で科学技術演算のためのものじゃないんですよ
倍精度の性能に正規の対価を払おうとしない悪質ユーザーの梯子を外されたからって
何が問題なんですかねえ

670 :,,・´∀`・,,)っ-○○○:2016/02/23(火) 20:14:34.27 ID:U0HFk1NZ.net
倍精度ユニットの実装コストはロハではないので
メインで使う単精度の演算性能向上や電力効率の改善に振ったほうが
大多数のユーザーのためなんですよ

実質TeslaをGeForceの価格で売れと言ってるような倍精度乞食の言葉に
耳を傾ける必要はないのデス

671 :デフォルトの名無しさん:2016/02/23(火) 21:11:07.44 ID:NTXFP2zz.net
単精度布教はいいからCUDAについて書けよ

672 :デフォルトの名無しさん:2016/02/23(火) 22:13:43.75 ID:/ZAu7LIh.net
NGにしてるから何かいてあるか知らないけど、どうせ相手にする価値がないことは>>671
から読み取れるw

このスレは研究者もヲチしてるだろうから言っておくけど、もうNVは倍精度は捨てるね
Felmi時代とは大違い

DirectX12(ウィンドウズ10)になるとAMDだけがローレベルAPIの恩恵に与れることを知ってるから、
Maxwell世代で素早くGPGPU切りの変わり身を演じた
今後は半精度と単精度の混合GPUばかりでCUDAはどんどん腐ってくるw

673 :デフォルトの名無しさん:2016/02/23(火) 22:47:19.86 ID:oMRN0TkA.net
恥ずかしいやつだなこいつ

674 :デフォルトの名無しさん:2016/02/23(火) 23:01:37.48 ID:/ZAu7LIh.net
>>673
てめえをNGにして非難合戦のスレ汚しをしたくないのにノコノコ単発で出てくるな!
糞団子!

675 :デフォルトの名無しさん:2016/02/23(火) 23:20:55.12 ID:zq7ECeNv.net
>>672
なんかAMDが勝ち組でNVが負け組の様に書いてあるけど、実際は真逆だよ
AMDはゲーム機でなんとか持ちこたえてる状況で、NVはDL特需で歴史的な好況
GPGPUはCUDAがデファクトになりつつあるからAMDはほぼ詰んでる
まぁ、先の事は判らないけどね。

676 :デフォルトの名無しさん:2016/02/23(火) 23:23:55.28 ID:oMRN0TkA.net
>>674
お前みたいな負け犬アム厨が自作PC板から出てこなきゃ平和なんだけど

677 :デフォルトの名無しさん:2016/02/24(水) 12:20:01.56 ID:Ad4bERAY.net
>>675 >>675
まだ単発自演で俺をやり込めようってか?糞団子!
NVはもはや半精度でしか生き残りが出来ないんだよ!
このスレは倍精度の行方が一番大事なんだからてめえがいることが一番スレを汚すんだ馬鹿野郎!

678 :デフォルトの名無しさん:2016/02/24(水) 12:31:29.64 ID:dk01eTkb.net
倍精度の行方なら団子がソース付きで書いたけどね
結局NVIDIAがHPCから撤退なんてのは出鱈目な言いがかりと

679 :デフォルトの名無しさん:2016/02/24(水) 12:47:40.23 ID:dk01eTkb.net
ほれ

NVIDIA Pascal based GP100 GPU to boast of 12TFLOPS SP & 4 TFLOPS DP performance
http://vr-zone.com/articles/nvidia-pascal-based-gp100-gpu-boast-12tflops-sp-4-tflops-dp-performance/106203.html

そらあんだけのシェアとエンプラ向けの大躍進あればコンシューマ向けとHPC向けで
それぞれに合わせた演算ユニット構成のカスタマイズ費用くらい捻出できるだろう

そしてここはAMDについて語るスレでもNVIDIAをネガキャンするスレでもない
誰が場所をわきまえていないのか自覚したら?

680 :デフォルトの名無しさん:2016/02/24(水) 12:47:59.45 ID:jB1Q2gHg.net
>>677
おいおい糞団子と一緒にするなよ
ここはCUDAスレだぞ
倍精度の行方とかどうでもよろしい
お前自分が糞団子レベルになってる事に気付けよ

681 :デフォルトの名無しさん:2016/02/24(水) 12:58:31.02 ID:jXa1RnbL.net
浮動小数点数の精度なんて
コード組む側からすればどれも一緒だよ
倍精度だと収束するが
単精度だと発散するとか
それ単にコードの質が悪いだけだしね
何がそんなに気になるのかわからん

682 :デフォルトの名無しさん:2016/02/24(水) 13:10:46.14 ID:kxdU4ZHF.net
>>681
えっ???

683 :デフォルトの名無しさん:2016/02/24(水) 13:17:56.21 ID:dk01eTkb.net
FireProがHPC向けでまったといっていいほど使われないのは
分岐粒度が荒過ぎて実効でスペックの半分も出ないとか
特定用途向けの商用ライブラリが用意されてないのか
それ以前の問題としてランタイムが頻繁にクラッシュするとか
結局のところトータルの問題なんだよね

単精度特化の一般のGPUで多倍精度使う場合は遅い倍精度を使うより
単精度DFTのほうがはるかに速い

684 :デフォルトの名無しさん:2016/02/24(水) 14:12:53.97 ID:s8sb75Sy.net
中小企業や個人開発のプログラムにもCUDA開発の無償支援してくれる
そういう実績があるからCUDAが鉄板になってるわけで

そういうことをやったためしもなければ大赤字でやれる予算も割けないAMDに
期待できることは何一つとしてない、これが現実
うちの商品はほぼ整数しか使わないだから倍精度実数が速いかどうかなんて
微塵も関係ない

685 :デフォルトの名無しさん:2016/02/24(水) 14:34:29.38 ID:Ad4bERAY.net
糞団子はコテ使ってると相手してくれないから寂しくて単発コテはずし作戦に出たのか?
NVはどう考えても半精度中心のグラフィックス/深層学習中心に経営資源をシフトしてるんだがw


http://ascii.jp/elem/000/001/046/1046956/index-3.html
>Pascalはこの点ではMaxwellを継承しており、倍精度浮動小数点の性能は非常に低いと思われるので
>Pascalはこの点ではMaxwellを継承しており、倍精度浮動小数点の性能は非常に低いと思われるので

大事な事だから二度言うぞ

>つまりPK100は半精度浮動小数点をサポートするが、PK104はこれをサポートしない(あるいは回路を持たない)可能性がある。

プロセスルール次第だが半精度に重心を置いていることは明白だな

686 :デフォルトの名無しさん:2016/02/24(水) 14:41:47.70 ID:Ad4bERAY.net
half2floatをPascalでは強化していくから、結局AMD対NVの戦いは「half2float」の描画特化対
「Async」の戦いになっていくんだろうね

687 :デフォルトの名無しさん:2016/02/24(水) 14:51:49.40 ID:NAMaIKUn.net
今後この馬鹿に一切かまうな
かまうから喜んで荒らし続ける

688 :デフォルトの名無しさん:2016/02/24(水) 15:33:36.04 ID:jXa1RnbL.net
どっかのニュースのコピペばかりで
うんざりするよ
自分の引き出しは空だと言っているようなものだ

689 :デフォルトの名無しさん:2016/02/24(水) 17:46:05.30 ID:l0DrHc2T.net
>>686
AMDなんか興味ない
お前は糞団子と同レベルの荒らしだ
失せろ

690 :デフォルトの名無しさん:2016/02/24(水) 17:50:58.28 ID:jXa1RnbL.net
一般利用でCUDAが何に使えるのか
ネタ出せよ
ゲームで使えんの?

691 :デフォルトの名無しさん:2016/02/24(水) 17:55:56.67 ID:Ad4bERAY.net
>>689
お前はAMDに一番興味あるだろうが糞団子!
お前が去ればこのスレは一気にクリーンになるんだよボケ
お前が一番危機感抱いてるのは倍精度をなくす方向のNVに対して非難が集中する事だけだ
だからこそお前が一番イラネーんだよ屑

692 :デフォルトの名無しさん:2016/02/24(水) 18:44:53.08 ID:l0DrHc2T.net
>>691
お前病院行けよw

693 :デフォルトの名無しさん:2016/02/24(水) 18:55:34.70 ID:Ad4bERAY.net
>>692
糞団子よヒヨッたなw

694 :デフォルトの名無しさん:2016/02/24(水) 21:04:29.34 ID:Nmttufaz.net
>>693
お前はいったい何と戦ってるんだ?
日和ったの意味も違うしな
ここのみんなはAMDにもNVにも思い入れはないから
迷惑だから糞団子と一緒に消えてくれ

695 :デフォルトの名無しさん:2016/02/24(水) 22:15:50.14 ID:teBWCRhn.net
団子よりヤバイ真性のキチガイが団子以外も団子に見えているらしい。

696 :デフォルトの名無しさん:2016/02/24(水) 22:27:56.59 ID:zahm20jW.net
団子消えろ

697 :デフォルトの名無しさん:2016/02/24(水) 22:37:00.33 ID:l5BeTFuC.net
>>695
ほんと真性基地だよな。日中でも必死カキコっていうのもな
この人、プログラムに関する話がでないことからして、プログラムやったことないんだろうな

698 :デフォルトの名無しさん:2016/02/24(水) 22:56:49.71 ID:teBWCRhn.net
>>683
分岐粒度が荒すぎってCPUとの比較なら未だしも、NVIDIAとの比較だったら普通そんなに差は出ないぞ。
差が出るのは64のうち前半もしくは後半の32がほぼ埋まっているのに、反対の32が完全に空みたいな状況が頻発する場合だけ。

まあCUDAからのベタ移植ならあり得ないこともないのだろうが。

699 :デフォルトの名無しさん:2016/02/25(木) 08:17:21.70 ID:qdgy2oNb.net
プログラムの話しようぜ
そうすれば団子その他プログラム書けない人が消えるだろうから

700 :デフォルトの名無しさん:2016/02/25(木) 08:22:03.55 ID:qdgy2oNb.net
>>698
まあそうだな
今のnVidia32、AMD64の設定は回路効率と性能効率を考えて美味しいところなんだろうか?
ただの惰性?

701 :デフォルトの名無しさん:2016/02/25(木) 08:23:54.24 ID:YDhqTq2/.net
将来的に4にするっていこうだが
実行レベルでは
warpは32のままだろうけど

702 :デフォルトの名無しさん:2016/02/25(木) 13:05:41.93 ID:FCdE8jm8.net
>>692-695 >>697
糞団子は黙ってろ!
文句があるならコテ付けろやコラ!
テメエが鬱陶しいんじゃ、ボケ!

>>698
それも糞団子の自演だよ
NVIDIAの優位性は3dfxを買収した事で得られたソフトノウハウだな

自作板でもそうだけど、よくよく考えるとおかしな文面でごまかすのが団子
たいてい論破されるとどうでもいい専門用語を並べてイカスミ作戦に出る

703 :デフォルトの名無しさん:2016/02/25(木) 14:04:40.68 ID:Sn2492Ux.net
>>702
まずお前がコテつけてくれ

704 :デフォルトの名無しさん:2016/02/25(木) 14:47:28.30 ID:Ey2CZbRS.net
不用意に3dfxとか使うと歳がばれるぞ

705 :デフォルトの名無しさん:2016/02/25(木) 17:48:12.65 ID:8lu6Pire.net
>>702
あの程度の文面を理解できないほど技術に疎いのだな。

そもそも団子認定連呼廚のスタンスがよくわからん。

706 :デフォルトの名無しさん:2016/02/25(木) 18:22:40.32 ID:Ey2CZbRS.net
好きなんだろ
恋だよ恋

707 :デフォルトの名無しさん:2016/02/25(木) 19:23:25.50 ID:JdxelD2D.net
糞団子もイカスミも同レベル

708 :デフォルトの名無しさん:2016/02/25(木) 19:39:25.49 ID:tc7lGvfi.net
団子が消えれば平和になる

709 :デフォルトの名無しさん:2016/02/25(木) 19:52:29.05 ID:JdxelD2D.net
団子既に消えてるじゃん?
イカスミが煽るから戻って来るんだよ

710 :デフォルトの名無しさん:2016/02/25(木) 20:58:58.26 ID:qdgy2oNb.net
誰だよイカスミって

711 :デフォルトの名無しさん:2016/02/25(木) 23:01:45.88 ID:OUVaT1r5.net
nvidia ってC++AMPって力いれてるの?
CUDAが主力なのはわかるんだが。

OpenMPのようにC++AMPがいいところまでいってからtoolkitにマージするつもりなのか
それともC++AMPが自然消滅するのを待っているのかわからん。

712 :デフォルトの名無しさん:2016/02/25(木) 23:56:26.32 ID:y8R9vLq2.net
>>710
>>702=イカスミ

713 :,,・´∀`・,,)っ-○○○:2016/02/25(木) 23:58:06.25 ID:VFYZCeUD.net
C++ AMPは事実上終了したよ
MSはいまNVIDIA ThrustをベースにしたParrarel STLに注力中

714 :,,・´∀`・,,)っ-○○○:2016/02/26(金) 00:00:42.44 ID:au4AtN7W.net
Pallarel STLね

715 :デフォルトの名無しさん:2016/02/26(金) 00:04:42.12 ID:sfGjrhZB.net
>>705
NVはC++AMPとか言うより倍精度をボリュームゾーンから外しにかかってるな
Pascalには全く期待できんよ
IBMの場合は大口契約だから安く調達するだろうけど、それだけ
いずれGPGPU用(テスラ)は値段を上げざるを得ないだろうなあ

716 :デフォルトの名無しさん:2016/02/26(金) 00:18:06.49 ID:XrDeqd+8.net
それなら死んでないでしょう。
スラストがCUDA用のライブラリと同様に
C++AMPで使うためのものだろうから。

717 :,,・´∀`・,,)っ-○○○:2016/02/26(金) 00:46:50.10 ID:au4AtN7W.net
Pallarel STLのバックエンドはC++AMPに限らずOpenACCやOpenMP(4.0), TBBでもいい
NVIDIAが推してるのはOpenACC, IntelはOpenMP

718 :デフォルトの名無しさん:2016/02/26(金) 00:49:09.70 ID:jDU7chRF.net
>>704
俺3dfxを知らないからググッタよ。イカスミ、かなりの歳なひとなんだな

C++AMPを使っている奴どれぐらいいるんだ?

719 :デフォルトの名無しさん:2016/02/26(金) 01:09:31.01 ID:puLBdTvq.net
>>714
ミス指摘してさらにひどくミスすんなって

720 :,,・´∀`・,,)っ-○○○:2016/02/26(金) 01:13:08.03 ID:au4AtN7W.net
parallelサーセンwwwww

721 :デフォルトの名無しさん:2016/02/26(金) 01:36:18.43 ID:1N9hBdg9.net
>>715
最初の頃のテスラは円高もあり、20万位だったが、いまじゃ80万くらいになってもうた。まあA30とかは120万くらいしたんだけど。

722 :デフォルトの名無しさん:2016/02/26(金) 01:38:37.56 ID:XrDeqd+8.net
>>717
そうだOpenACCだ。勘違いしてたよ。
C++AMPではなかった。
MSだけだとC++AMPはきびしいだろうね。
まだOpenACCのほうがめはあると思う

723 :デフォルトの名無しさん:2016/02/26(金) 01:42:47.55 ID:XrDeqd+8.net
>>721
その頃とくらべると開発環境がかくだんに良くなってる。
HWのコストだけでなく、そういうの含んでの価格だろうね。

724 :デフォルトの名無しさん:2016/02/26(金) 03:40:06.50 ID:VdCPJ0Vc.net
>>702
後半はまったくその通りだな団子
どこかで調べた用語を使うが、意味を良く分からずに使うからおかしな日本語になる

725 :デフォルトの名無しさん:2016/02/26(金) 05:22:49.16 ID:YzxqLjh+.net
nvはpgi買収してopenaccのコンパイラも力入れてるよ
doeのエクサスケールで使うのもcudaじゃなくてopenaccだし

726 :デフォルトの名無しさん:2016/02/26(金) 05:38:13.56 ID:mUz9Cfpw.net
「,,・´∀`・,,)っ-○○○」って鳥屋氏でしょ。
悪いけどここに同じレベルの人はいないんじゃない。

727 :デフォルトの名無しさん:2016/02/26(金) 07:10:07.81 ID:VdCPJ0Vc.net
何のレベル?

728 :デフォルトの名無しさん:2016/02/26(金) 08:03:13.43 ID:lqbLzerX.net
イカスミが同レベル
どっちも要らない

729 :デフォルトの名無しさん:2016/02/26(金) 08:04:45.81 ID:VdCPJ0Vc.net
鳥屋氏ってだ〜れ?

730 :デフォルトの名無しさん:2016/02/26(金) 11:35:24.33 ID:J+QrFB1k.net
NVの工作員
GPGPUはVLIW時代のATIGPUを持ち出してネガキャン

731 :デフォルトの名無しさん:2016/02/27(土) 13:53:00.79 ID:VbYYT6/A.net
鳥屋でググるとこれが出てきた
http://potato.2ch.net/test/read.cgi/software/1205766220/

732 :,,・´∀`・,,)っ-○○○:2016/02/27(土) 19:58:40.83 ID:WSIY1iVq.net
俺がいてもいなくてもCUDAプログラミングの話ができない無能集団のスレ

733 :デフォルトの名無しさん:2016/02/27(土) 20:22:31.94 ID:VXpwyn8O.net
囲碁ソフトにディープラーニングが使われ始めてるんだが、
CUDA対応ソフトもそろそろ来るかもしれん。
一般人にも身近な技術になるかもね。

734 :,,・´∀`・,,)っ-○○○:2016/02/27(土) 20:27:20.16 ID:WSIY1iVq.net
そのうち教えられたことだけしかコーディングできないクソPGもAIにとって代わられるんだろうな

735 :デフォルトの名無しさん:2016/02/27(土) 22:07:54.84 ID:unQVppL1.net
なるほど糞団子が嫌われるわけだ

736 :デフォルトの名無しさん:2016/02/27(土) 22:34:12.86 ID:VbYYT6/A.net
鳥屋ってただのサンデープログラマーだからな
知ったか決めてりゃ嫌われる

737 :デフォルトの名無しさん:2016/02/27(土) 23:58:13.35 ID:Fq+Tn6zB.net
>>736
鳥屋氏の書いたコード見たことないでしょw
申し訳ないけど、ここにいる人たちとは次元が違うよ。
頭が良すぎて理解されないタイプ。

738 :デフォルトの名無しさん:2016/02/28(日) 00:21:01.28 ID:4gv2LXai.net
>>731
,,・´∀`・,,)っ-○◎●
と持っている団子が違うが同じ人なのか? 

739 :,,・´∀`・,,)っ-○○○:2016/02/28(日) 00:32:14.81 ID:5Pz55yFT.net
君はその名前欄に●入れてそのまま表示されるか試したことがあるかい?

740 :,,・´∀`・,,)っ-○◎○:2016/02/28(日) 00:34:20.80 ID:lm9zk8qN.net
テスト

741 :デフォルトの名無しさん:2016/02/28(日) 00:34:46.41 ID:lm9zk8qN.net
むう、表示されんのう

742 :デフォルトの名無しさん:2016/02/28(日) 00:53:04.73 ID:4gv2LXai.net
別人なのか?
,,・´∀`・,,)っ-○◎●
が持っているのは焼き鳥

,,・´∀`・,,)っ-○○○
が持っているのは団子
ということか

743 :デフォルトの名無しさん:2016/02/28(日) 00:58:05.10 ID:9kjNwUs3.net
鳥屋氏が両方つかってるの見たことあるから本人なんじゃない?

744 :デフォルトの名無しさん:2016/02/28(日) 01:03:49.87 ID:4gv2LXai.net
なら、次は,,・´∀`・,,)っ-○◎● で書き込んでくれるな

745 :デフォルトの名無しさん:2016/02/28(日) 01:06:06.88 ID:9kjNwUs3.net
っていうか●が名前欄に使えなくなった経緯も知らないんじゃ、鳥屋氏のことを知らなくても無理は無いね。

746 :デフォルトの名無しさん:2016/02/28(日) 01:17:52.65 ID:4gv2LXai.net
>>745
俺もだが団子と言っている奴は鳥屋時代のこと知らないだろ
>>737の言うような奴ならすごいCUDAコード披露して欲しいが
でも、雑談に必死なコテの荒らしって感じだからな。
とりあえず、鳥屋時代のコードどっかにないのか? 見てみたい気がする

747 :デフォルトの名無しさん:2016/02/28(日) 01:18:45.52 ID:TGNAvpkz.net
糞団子がどんなコード書くか知らんけど、弾道計算の件でシドロモドロになった事実は消えんぞ
所詮その程度の知的レベル

748 :デフォルトの名無しさん:2016/02/28(日) 01:43:25.37 ID:9IJglbed.net
>>725
速度自体は生でcudaやったほうが速いらしいから
これは開発効率を優先してPGIなのかね?
あるいは現時点ではいまいちでも今後の成長を鑑みてとかさ

さすがにdod,doeでも世代ごとのコード書き換えは負担なんだろうか

749 :デフォルトの名無しさん:2016/02/28(日) 01:50:50.47 ID:9IJglbed.net
キャッシュの増量やシャッフルIA、HyperQ,DP等を全部こみこみで考えると
1コアあたりの実効性能(flaot)はfermi, keplar, maxwellと上がってると考えていいのかね?

flops/core/clockではなくてflops/coreという意味で、かつ理論値での比較ではなくていかに実測値がでるかという意味で。

750 :,,・´∀`・,,)っ-○○○:2016/02/28(日) 02:02:26.76 ID:5Pz55yFT.net
俺は中村氏じゃねーから

751 :,,・´∀`・,,)っ-○○○:2016/02/28(日) 02:05:54.35 ID:5Pz55yFT.net
2009年当時なら団子はやっぱり団子だったぜ?
http://www.openwall.com/john/doc/CREDITS.shtml


当時書いてたのも別に変態的でもない普通のCコードですけどね
http://download.openwall.net/pub/projects/john/contrib/bitslice-des/dango.chu.jp/

752 :デフォルトの名無しさん:2016/02/28(日) 03:07:32.07 ID:9kjNwUs3.net
>>750
あれ、中村氏もそのAAつかってなかったっけ?
とにかく鳥屋氏(=中村氏)はプログラミングの技術も問題に対するアプローチの仕方も異次元の存在だったな。

753 :デフォルトの名無しさん:2016/02/28(日) 09:32:39.66 ID:kqHim0z9.net
やっぱり団子って複数人いるよね?
すごく詳しい話をするとおもったら、なんか急に低レベルだったり、
てにをはが変わったりする。

754 :デフォルトの名無しさん:2016/02/28(日) 09:40:16.99 ID:uncqUlBQ.net
たまに二人の団子が会話することもあるぞ

755 :,,・´∀`・,,)っ-○○○:2016/02/28(日) 11:21:05.00 ID:5Pz55yFT.net
> あれ、中村氏もそのAAつかってなかったっけ?
なにそれ見たことない

756 :デフォルトの名無しさん:2016/02/28(日) 11:43:53.32 ID:F3rkrfCl.net
結局鳥屋が馬鹿団子の振りしてるだけかもだが、詐欺の天才は結局馬鹿より有害
NVのやる事は何でもマンセーではスレ汚しとしか言いようがない
CS機をAMDが独占したからNVは倍精度に手を出せなくなった、と言うといつも発狂
これでは冷静な議論が出来ない

757 :デフォルトの名無しさん:2016/02/28(日) 11:46:36.13 ID:1t5d585j.net
おまえはcuda関係ないんだからくるなよ
かまってちゃん

758 :,,・´∀`・,,)っ-○○○:2016/02/28(日) 11:51:31.77 ID:5Pz55yFT.net
そっち界隈しばらくチェックしてなかったけど海外のハカー面白いことやってるね。

ちょうどCUDAに特化した話題だ。
MaxwellのLOP3.LUT命令を使ったビット演算の高速化テクニックについて興味ある人は
一度この講演ビデオ観ておくといいと思う。
http://www.irongeek.com/i.php?page=videos/passwordscon2014/bitslice-des-with-lop3lut-steve-thomas

実際問題AVX-512のvpternlogもLOP3.LUTと引数互換なんだわ
ぶっちゃけソース置換するだけで移植可能

759 :デフォルトの名無しさん:2016/02/28(日) 12:03:43.36 ID:F3rkrfCl.net
>>757
鳥屋=糞団子!テメエこそCUDAの何が分かるんだボケ!

760 :デフォルトの名無しさん:2016/02/28(日) 12:06:45.18 ID:1t5d585j.net
ハイハイお薬の時間でちゅよ

761 :デフォルトの名無しさん:2016/02/28(日) 12:18:13.04 ID:F3rkrfCl.net
単発のお時間がきまちゅたね〜

鳥屋=糞団子が自作板からこっちのスレの巡回時間が来たみたいw
本当に鳥屋が使える天才なら2ちゃん談義なんかしねえな

10年前ならゲーム業界か、少し前なら京に関わるか
或いはアメリカでイラン向けバックドアを仕掛けるお仕事か…
どっちにしろヒマを持て余すようではお里は知れてる

762 :デフォルトの名無しさん:2016/02/28(日) 12:24:17.80 ID:1t5d585j.net
ハイハイお部屋に戻りましょうねぇ

763 :,,・´∀`・,,)っ-○○○:2016/02/28(日) 12:37:00.70 ID:5Pz55yFT.net
https://community.amd.com/thread/197348
AMDのGPUにはLOP3.LUT相当の命令がないことにユーザーからも不満が噴出しているようです

764 :デフォルトの名無しさん:2016/02/28(日) 12:44:20.68 ID:F3rkrfCl.net
単発でも見事につられまちゅね〜wwwww
団子=鳥屋ちゃんピンチでちゅね〜wwwwww

765 :デフォルトの名無しさん:2016/02/28(日) 12:51:25.16 ID:1t5d585j.net
ハイハイご飯時間ですよおじぃちゃん

766 :デフォルトの名無しさん:2016/02/29(月) 16:54:00.73 ID:XMRi5hV6.net
なんだかすごく質問しにくい流れなんですがいいですか?
バイトニックソートのプログラムを作ってみまして、
要素数512を境にGPUの方が速くなったのは良かったんですが、
要素数8192くらいからGPUの時間増加の傾きがCPUより悪化してしまって、
1048576ともなるとほとんど大差ないくらいになってしまいました。
これが普通なのか、おかしいのか、
おかしいなら原因として何がありそうか教えてほしいです。
一応可能なところはshared memory使ってますが、要素数256以降は
比較の組がとびとびになるはずなのでglobal memoryを直接読んでます。
以下、ソートを10000回繰り返した際の1回あたりの所要時間です。
要素数 CPU[s] GPU[s] CPU/GPU
2 0.00000 0.00004 0.004
4 0.00000 0.00005 0.008
8 0.00000 0.00005 0.011
16 0.00000 0.00006 0.020
32 0.00000 0.00007 0.036
64 0.00001 0.00008 0.099
128 0.00002 0.00009 0.229
256 0.00005 0.00010 0.522
512 0.00013 0.00013 1.027
1024 0.00031 0.00016 1.909
2048 0.00076 0.00025 2.975
4096 0.00179 0.00036 4.919
8192 0.00423 0.00068 6.248
16384 0.00933 0.00202 4.627
32768 0.02142 0.00637 3.363
65536 0.04903 0.01776 2.761
131072 0.10829 0.05003 2.165
262144 0.24928 0.13078 1.906
524288 0.54765 0.32437 1.688
1048576 1.22586 0.77101 1.590

767 :デフォルトの名無しさん:2016/02/29(月) 17:56:37.64 ID:+ARXUC0S.net
鳥屋、答えてやれよ

768 :,,・´∀`・,,)っ-○○○:2016/02/29(月) 23:54:40.69 ID:72g2TQWh.net
>>767
バードショップ氏と話しがしたいなら @chapuni に凸ってきたら?

769 :,,・´∀`・,,)っ-○○○:2016/03/01(火) 00:01:36.14 ID:9XwMWslZ.net
バイトニックソートはキャッシュメモリで収まる範囲内の小さなデータ集合に対して有効
サイズが大きくなるとGPUのローカルメモリから外れて大幅にパフォーマンスが落ちる
CPUのほうが低レイテンシ・大容量のキャッシュ積んでる分だけ有利になるわけだ

CPUのキャッシュに収まらない量になれば再びGPUのほうが上回るはずだ
まあそのレベルに達する段階でO(n log n)のソートの検討の余地があるが

770 :デフォルトの名無しさん:2016/03/01(火) 00:02:13.26 ID:epSXE3Ge.net
>>766
Nvidiaならおかしいことはよくある。気にするな
GPGPUでおかしいことをさけたいなら倍精度の自慢のAMDを使う

771 :デフォルトの名無しさん:2016/03/01(火) 00:33:31.30 ID:k65RqU8V.net
質問者がシェアードメモリって言ってるのにキャッシュとかいい加減なこと言ってる
シェアードメモリに言及しないなんてあり得ない
そもそもCUDA使ったことないんだろうな
やっぱ糞団子は低レベルだな

772 :,,・´∀`・,,)っ-○○○:2016/03/01(火) 00:41:11.27 ID:9XwMWslZ.net
いったい何年前の話をしてるんだ
Fermiから階層型キャッシュ導入してるが
http://www.gdep.jp/column/view/2

773 :,,・´∀`・,,)っ-○○○:2016/03/01(火) 00:46:09.76 ID:9XwMWslZ.net
GPUについてはどっちにも解せる「ローカルメモリ」と言い換えてる
ちゃんと読めない子は呼吸を止めて1秒あなた新鮮だけど煮魚

774 :デフォルトの名無しさん:2016/03/01(火) 12:21:21.56 ID:/z3eDKB8.net
>>771
結局団子を買いかぶってた奴は団子自身だろwwwwwwwwww
糞っぷりを言い触らされたくないチンケなプライドが虚勢を張りたくなる理由なんだろう

775 :デフォルトの名無しさん:2016/03/01(火) 12:24:00.41 ID:CYOvNsDD.net
ケンタッキーフライドチキンがどうしたって

776 :,,・´∀`・,,)っ-○○○:2016/03/01(火) 12:31:48.31 ID:iam2QPf0.net
GMにマッピングされたメモリは一定の局所性があればキャッシュにマッピングされる
常識が通じないバカが勝手に自爆してるな

777 :754:2016/03/01(火) 15:10:24.97 ID:oQoWs5hY.net
>>769
キャッシュメモリ……
すいません、当方キャッシュについては不勉強でして、よくわかってません。
多分L1とかL2とか書いてあるやつだと思うのですが、手元の参考書が古い(6年前)もので……。
DeviceQueryだとL2 Cache Size: 524288 bytes って出るのでこれでしょうか。
Total amount of shared memory per block: 49152 bytes とか
Total number of registers available per block: 65536 とかもあります。
英語版Wikiの平均計算時間O(log(n)^2)parallel timeもよくわかってなかったりします。
log(n^2)なのか(log n)^2なのかよくわからんとです。
>>770
倍精度だと性能がうんたらとややこしかったので、単精度整数のソートなんです。
正確には同サイズの単精度整数配列2つを作り、
片方を基準にソートして、もう片方を一緒に並び替えてます。
構造体にしてもいいんですが、一緒に並び替えたほうだけが後々必要なデータでして。
最終的にはソートした結果を使って色々処理するためのプログラムなんですが、
現状だとこのソートで全体の8割くらい時間食っちゃってるんですよね。
ソートしなかったらもっと遅い(というかO(n^2)になる)ので無意味ってわけでもないんですが。

忘れてましたがGeForce GTX 760を使ってます。
以前機会があったので、別のGPU(GTX570だった気がする)でほぼ同じ計算させてみたこともあるんですが、
そっちだともっとマシでした。CPUより確実に速い、と胸を張って言えるくらい。
スペックの違いを加味しても、うちのGPUだけ下手したらCPUより遅いってのも変だなあ、と。

778 :デフォルトの名無しさん:2016/03/01(火) 15:16:26.28 ID:oDNKlTv2.net
たぶんfermi世代とkepler世代でのL1Dの扱われ方の違いとか?

http://news.mynavi.jp/column/architecture/335/

779 :デフォルトの名無しさん:2016/03/01(火) 20:11:04.94 ID:/z3eDKB8.net
要約すると団子の答えは答えになってない

780 :754:2016/03/01(火) 21:01:21.25 ID:oQoWs5hY.net
>>778
参照先読みました。キャッシュの話だったので自信はありませんが、
Fermi(GX570)世代のキャッシュは容量超えると(多分)通信の速いL1D等に退避されてたけど、
Kepler(GTX760)世代だと通信の遅いglobalに退避されるようになった、ってことですか?
さすがにアーキテクチャの仕様だと自分のスキルじゃ対応できません……。
>>779
答えになってないというか、私の知らない範囲の回答だったんでよくわからなかった感じです。
言ってることは766さんの参照先と多分同じなんだと思います。自信はありませんけど。

で、みなさん改善する方法はないでしょうか……。
大規模計算にウンタラ使うとカンタラがヤバいから避ける、みたいなことありませんか?
オプションにホニャララって追加すれば設定が変わる、とか(実はオプションもよくわかってない)。
大規模の時、キャッシュ代わりにあえてsharedを定義しても意味ないのかな…普通はないよな…

781 :デフォルトの名無しさん:2016/03/01(火) 22:50:15.99 ID:1eMSB1ZO.net
また団子が知ったかぶりをかましたのか!(呆れ)

782 :,,・´∀`・,,)っ-○○○:2016/03/01(火) 22:57:33.44 ID:xcdR7XnG.net
そもそもキャッシュはシェアードメモリの退避先ではなくグローバルメモリの一部の読み書きを高速化するためのもの
シェアードメモリに収まらないデータのソートで遅くなる問題なのでシェアードメモリは全く関係ない

アホが自爆すんなよ

783 :,,・´∀`・,,)っ-○○○:2016/03/01(火) 23:00:19.76 ID:xcdR7XnG.net
データ全体がキャッシュに収まらない場合はキャッシュローカリティを意識した演算順序の最適化をする
これはCPUでもGPUでも理屈は変わらない

784 :,,・´∀`・,,)っ-○○○:2016/03/02(水) 00:01:12.12 ID:Lh/popYV.net
自分の答えを示さず謂れのないイチャモン付けに必死になる奴ほど
スレにとって邪魔な存在はないね

785 :デフォルトの名無しさん:2016/03/02(水) 01:05:18.36 ID:WNl5zi/w.net
団子はレスをまとめることを覚えて

786 :754:2016/03/02(水) 01:23:35.90 ID:n1GLxV/f.net
>>782-783
キャッシュローカリティって何さ…となったので、Google先生に勧められた
wikiの『参照の局所性』を読んで、ちょっとわかった気がします。
自分が作ったバイトニックソートは大規模データの場合、
各threadがほとんど毎回前回と異なる&近傍でもないメモリ参照することになるので
時間的にも空間的にも最適化ができてないみたいです。
ない知恵絞ってif文減らして実質1つにした結果がこれだよ!
あ、いや、thread単位はそうでも、warpとかblock単位で見れば近傍データなのか…?これはバンクの話か…?
実装のややこしさを飲み込めばシェアソートの方が参照の局所性は大きくしやすいのかな…?

まだよくわかってないことが1つありまして、
プログラム上では何万何十万の計算を並列に扱ったとしても、
物理的にはハード側の制限があるわけじゃないですか。
GTX760ならCUDAコア1152基なわけで、一万を並列化しても
実際には同時じゃなくて9回くらいに分けて順に処理する、みたいな。
となると、その9回で各CUDAコアは別のメモリを参照するわけなんですが、
この時前回のキャッシュって残るんでしょうか? 残らない…ですよね?
それともカーネルとしての処理が終わるまでは残るんでしょうか?
はたまたプログラムが終わるまでは念のため残しておく、とか?
キャッシュの利用自体が悪いんじゃなくて、
キャッシュにも収まらないデータ量がよくないってのはわかってるんですが、
なんかこのあたりの理解がまだ曖昧なんです。

787 :754:2016/03/02(水) 01:46:45.38 ID:n1GLxV/f.net
だらだら長文書いたわりに今自分の気になることからは逆に離れた気がする。
手っ取り早く要約すると、CPU↔メモリ(キャッシュ)の速度は
CUDAコア↔各種メモリの速度のどの当たりに相当するのか、でしょうか?
GPU内ならレジスタ>shared(キャッシュ)>globalの順で速いとかは聞きますけど、
もう一歩踏み込んで『この不等号の列に割り込ませるなら』CPUの速度はこのあたり、という指標が見つからないんですよね。
もちろん機種によって千差万別だとは思いますが、
傾向としてはこのくらいかなあ、みたいな話でもいいので教えていただけたら幸いです。
あ、もちろん>>786の質問も答えていただけると助かります。
キャッシュがよくわかってないのも確かなので。

788 :,,・´∀`・,,)っ-○○○:2016/03/02(水) 01:48:15.90 ID:Lh/popYV.net
後続の処理が走ってもデータが保持されるかどうか?
これについては実装依存としかいいようがない
なにせGPUはCPUと比べてもキャッシュの容量は小さいので
いつまでも今処理してないデータを保持し続ける理由も乏しい。

処理順序の並べ替えが可能なら、データアクセスの局所性に合わせて並べ替えることをお勧めする。

789 :デフォルトの名無しさん:2016/03/02(水) 15:13:17.26 ID:XnY+JUNw.net
この会話を分かりやすく噛み砕くとこういう感じか

754
GPUの並列化の最適化を教えてください

団子
シェアードメモリーガー

754
あの…ですからデータの並列化を…

団子
データアクセスの局所性ガー

754
・・・・(その並び替えが分からないんだけどなー)・・・・まあいいです

790 :デフォルトの名無しさん:2016/03/02(水) 16:29:21.57 ID:epqhA4MI.net
おきゅんぱしー

791 :754:2016/03/02(水) 17:56:48.93 ID:n1GLxV/f.net
あっ

792 :デフォルトの名無しさん:2016/03/02(水) 18:46:16.76 ID:nVGVVFPp.net
>>787
うーん、速さといってもデータ転送なのかレイテンシなのかで答えようが無いね。
レイテンシに関してはコアに近いところだとCPUの方がクロックが高いから圧倒的にCPUだね。

793 :デフォルトの名無しさん:2016/03/02(水) 19:06:15.16 ID:2uJZVygs.net
>>773
いやいや、CUDAユーザーならローカルメモリなんて言い方はしない
そもそもローカルではないし

SRAMはキャッシュとシェアードだけ
ボロ出しまくり糞団子

794 :デフォルトの名無しさん:2016/03/02(水) 20:08:27.14 ID:n1GLxV/f.net
>>788
なるほど。基本的に残ってないと考えた方がよさそうですね。
バイトニックソートは綺麗に並列化できちゃうので、並び替えは無理っぽいです。
>>790
Occupancy確認しました。ビンゴでした。4%とかなにそれクソ使えてない。
というか、よくよく確認したらsharedもまだまだ余裕があったので、
要素数256でsharedの利用を切り替えていたのを2048まで拡張しました。
8192越えたあたりで悪化し始める、という性質こそ変わりませんでしたが
sharedの恩恵を受けられる範囲が増えたおかげか悪化しつつも
約100万要素でもCPUより7倍強速くすることができました。これでOccupancyは50%。
100%にするにはsharedのサイズの設定を変えなきゃならないけどやり方わかんない…。
しかし、こんなアホみたいな理由で遅くなっていたなんて。
みなさまにはご迷惑おかけしました……。
>>792
やっぱりCPUですか。GPUの性能をフルに発揮させるには
それなりに大きい規模を並列化して誤魔化さないといけないわけですね。

795 :754:2016/03/02(水) 20:12:34.57 ID:n1GLxV/f.net
名前入れ忘れたりsage忘れたりしてますが>>794は754です。
IDで察してくださいすみません。

796 :デフォルトの名無しさん:2016/03/02(水) 20:36:32.21 ID:XnY+JUNw.net
迷アドヴァイスを見るに見兼ねたスレ住民のおかげで助かりましたとさめでたしめでたし

797 :デフォルトの名無しさん:2016/03/02(水) 21:24:19.27 ID:ewxUegIs.net
>>794
シェアードをローカルとか言う奴の事は聞かないように
GPUはシェアードメモリを使ってなんぼだから

798 :デフォルトの名無しさん:2016/03/02(水) 21:47:03.61 ID:mhOGU3Or.net
っていうかgpgpuでソートが
そもそも間違ってるよなあ

799 :,,・´∀`・,,)っ-○○○:2016/03/02(水) 23:53:33.06 ID:Vx/0gvlz.net
てかFermi以降のSMはキャッシュを構成するSRAMの一部を
GMとは独立した空間のスクラッチパッドメモリとして割り当ててるだけなんだけどね
SMXが実質的なコアとみなすならシェアードメモリって別にシェアードでもなんでもないぞ

800 :デフォルトの名無しさん:2016/03/03(木) 00:02:42.09 ID:L7+NtMAj.net
ますます支離滅裂だな
シェアードメモリがシェアードじゃないとかCUDAの概念を全否定する発言じゃねぇか
つまりお前はCUDAの事なんか全く判ってない
ここはCUDAのスレだぞ
そろそろ出て行けや糞団子

801 :,,・´∀`・,,)っ-○○○:2016/03/03(木) 00:24:01.33 ID:HcahvuJO.net
まったく技術論になってないぞ
NVIDIAの用語がインチキ用語なのは今に始まったことじゃない
AMDのBulldozerのコア詐称以前からのコア数水増しやってるのがNVIDIA

命令ストリームレベルで見ればSMXが本来のコアで
CUDA Coreと呼んでるものはSIMDユニットの1エレメントにすぎない

802 :デフォルトの名無しさん:2016/03/03(木) 00:48:19.47 ID:OHZiW0+6.net
確かにCUDAというかNVIDIAの定義しているシェアードメモリは一般的なシェアードメモリとは違うね。どちらかというとローカルメモリといった方が正しいかもしれん。

803 :,,・´∀`・,,)っ-○○○:2016/03/03(木) 01:01:39.27 ID:HcahvuJO.net
同じコアだからこそメモリを介さずレジスタ上でシフト・シャッフルができる(Kepler以降)

CUDAのSIMTとは単純に32要素1024ビットのSIMDを32スレッドと読み替えてるだけ
この点はG8x世代から変わらないね

804 :デフォルトの名無しさん:2016/03/03(木) 01:48:33.97 ID:TCZfqrpq.net
自演会話すれば糞団子が味噌団子に変化するじゃないぞ?団子さんよお

805 :,,・´∀`・,,)っ-○○○:2016/03/03(木) 07:58:21.23 ID:HcahvuJO.net
自演認定しても頭がよくなりませんよ、他所者君
CUDAをちゃんと勉強してる人にはみんな知ってる事実だ

806 :デフォルトの名無しさん:2016/03/03(木) 08:43:19.76 ID:dzwxxNC2.net
また夜中の自演が始まったか
バレてないと思うところが糞団子だね
何度も言うがここはCUDAのスレ
僕の考えたシェアードメモリ論ならチラシの裏に書いとけ

807 :デフォルトの名無しさん:2016/03/03(木) 09:02:21.96 ID:HqLf1iVZ.net
CUDAでいうシェアードメモリはCPUでいう一次キャッシュだし、CELLで言うところのLSだから、SMメモリとかコアメモリとかにしておけばよかったのにね。
CUDAの黎明期はGPUをスパコンって呼ぶ戦略があったから、1スレッドを一コアに見立て、共有メモリだと言っていたのかもしれないね。

808 :デフォルトの名無しさん:2016/03/03(木) 09:17:45.89 ID:dzwxxNC2.net
>>807
それを言うならオンチップメモリ
少なくともソフトレイヤーではキャッシュとシェアードは別物
そもそもMaxwellではデータバスも異なる
んでここはCUDAのスレだ
スペオタと糞団子は去れ

>>804
cudaDeviceSetCacheConfigは試してみたのかな?

809 :デフォルトの名無しさん:2016/03/03(木) 12:05:39.08 ID:DYrHTZ2H.net
>>804
俺に聞かれてもなw
Occupancy確認してからスムースになってきたみたいだし、使わなくても順調ならそれでいいという
考えもある

810 :,,・´∀`・,,)っ-○○○:2016/03/03(木) 12:34:58.87 ID:Z97pa2Hq.net
ソフトレベルって言ってもなぁ
.cuやPTXのレベルならそうだろうがcubinレベルでみて言ってるんじゃないんだろ?

実際Sharedなんて言ってもSMX(実質上のコア)の中でしか参照できないんじゃ名前に偽りありとしか
SPMDをオレオレ用語で置き換えた概念で説明すればSharedなんだろうが物理的にはCellのSPUのLSと同じトポロジにすぎん

811 :デフォルトの名無しさん:2016/03/03(木) 14:52:54.35 ID:Qh2UpiXS.net
逆に複数のsmx間で共有されてたら
くそ遅いだろう
ローカルだから他のsmx気にしなくていいわけで

812 :デフォルトの名無しさん:2016/03/03(木) 14:54:11.01 ID:DdRI0anx.net
>>810
相変わらず頓珍漢なこと言ってるな
お前がどう思うかは全く興味がないから
ここはCUDAスレだ
CUDA使った事ない糞団子は去れ

813 :754:2016/03/03(木) 14:57:08.65 ID:FhaRPDaV.net
>>808
CUDA_Occupancy_Calculator.xlsで確認してたんですが、
CC3.0だと48kb/16kbと16kb/48kbの他に32kb/32kbがあるっぽくて、
32kbなら100%になる、みたいな謎結果が出てたんです。
で、うちの古い参考書にはその設定のやり方が載ってなかったんです。
だけどそのあと.xlsファイルを開き直したらなぜが100%になってました。
なんでやねん。

814 :,,・´∀`・,,)っ-○○○:2016/03/03(木) 15:08:31.08 ID:IfmnFgwQ.net
>>812
お前がCUDA使ったことないゴミだと自己紹介してることはわかったよ
俺は初代の8系から触ってるんだがな
墓穴ほり過ぎ

815 :デフォルトの名無しさん:2016/03/03(木) 17:12:24.19 ID:fEIbv9/m.net
また低脳の団子が自演かよ!?
いい加減にして欲しい
コイツがいるとスレが腐るんだけど(怒)

816 :デフォルトの名無しさん:2016/03/03(木) 19:52:45.84 ID:dqlRC1xd.net
>>814
初代から使ってそのレベルならお前には向いてないからもう諦めろ
結局質問者には何ひとつ有益な情報を与えられない低レベル糞団子

817 :デフォルトの名無しさん:2016/03/03(木) 20:01:58.72 ID:TCZfqrpq.net
>>813>>766
ああいう大人(団子)みたいになったらだめですよ(笑い

818 :デフォルトの名無しさん:2016/03/03(木) 20:19:52.39 ID:4mtdR8td.net
団子ちゃんは詳しいと思う。

819 :デフォルトの名無しさん:2016/03/03(木) 20:29:28.69 ID:n6tvCzB6.net
文句言うだけの奴より団子のほうがこのスレの役に立っている。

820 :デフォルトの名無しさん:2016/03/03(木) 21:01:42.18 ID:KusOhd2G.net
               【親米涙目】 ★   ロシアがアメリカを一発KO   ★ 【反中逃亡】

  宇宙人側からの申し入れは、とにかく核の利用と戦争をやめなさい、もう一つは宇宙人の存在を公表しなさい。
 つけ足したのが、60年の猶予を与えましよう、2014年には発表しなければならなかったんですね、宇宙人の存在を。
     ロシアという大国の首相がね、あれは冗談だよでは済まないですね、しかも2回も言ってるんだからね。
                     https://www.youtube.com/watch?v=FIRXKetUkq8



           【親米屈辱】 ★   宇宙人いない派のおバカさん残念www   ★ 【反中赤面】

      NASAは、UFOに対して長年取ってきた態度のために、無用な組織とされることを恐れています。
                 マイトレーヤが公に現れるにつれて、UFOが姿を表すでしょう。
世界平和の脅威は、イスラエル、イラン、アメリカです。イスラエルの役割は跪いて、パレスチナに許しを請うことです。
                アメリカによる他国の虐待に反対の声を上げなければなりません。
    彼らは今世紀(21世紀)をこの帝国が出来上がるアメリカの世紀と呼ぶ。しかし、そうはならないだろう。
  彼らが世界中に‘民主的’制度を確立したいという衝動をコントロールするのは、マイトレーヤの任務である。
Q 経済崩壊が2015年から、テレパシー世界演説が2017年の初めなら、2016年に大戦でしょうか。A 大戦は起こりません。



   【親米命乞い】 ★   マイトレーヤのテレパシーによる世界演説は英国BBCが放送   ★ 【反中土下座】
                     https://www.youtube.com/watch?v=6cOvo6n7NOk

                マイトレーヤが世界に向かって話をする準備は良好に進行している。
  25分か35分くらいかもしれませんが、歴史上で初めて、世界的規模のテレパシーによる接触が起こるのです。
  テレビ中継はこの出来事のために存在するのであり、この時、初めてご自身の本当の身分を明らかにされます。

821 :デフォルトの名無しさん:2016/03/03(木) 21:02:13.41 ID:L7+NtMAj.net
はい、単発来ましたw

糞団子のどこが有益なんだ?
シェアードメモリの割り当て変更にも答えられずに、ローカルメモリとか嘘の情報垂れ流してる奴だぞ?
まともなCUDAユーザーならローカルメモリとシェアードメモリが別物なんて事は常識以前の問題だ
糞団子の自論なんか誰も聞きたくない
嫌われ者の糞団子は去れ!

822 :,,・´∀`・,,)っ-○○○:2016/03/03(木) 22:03:27.41 ID:vD1NzbLA.net
他人のレスで我が物顔してるだけじゃん
無益な厨房だな

823 :,,・´∀`・,,)っ-○○○:2016/03/03(木) 22:12:39.51 ID:vD1NzbLA.net
つーか自称シェアードメモリが実質的なLocalStorageでしかないことは知っておかないとハマる事例もあるんだけどね
SIMTはAVXユニットを8コア、Xeon Phiの1コアを16コアって読み替えるトンデモ抽象化

824 :デフォルトの名無しさん:2016/03/03(木) 22:33:11.46 ID:a8cmYHdA.net
自演するな!糞団子

825 :,,・´∀`・,,)っ-○○○:2016/03/03(木) 22:34:50.71 ID:vD1NzbLA.net
別に何も間違ったことは書いてないんだが理解できないバカがいる

826 :デフォルトの名無しさん:2016/03/03(木) 22:51:35.86 ID:L7+NtMAj.net
シェアードメモリをローカルメモリとか言う嘘を垂れ流してる事はスルーなんだな
簡単な初期化関数すらアドバイス出来ない低レベル糞団子

ちなみにシェアードメモリは自称でもなんでもなく公式な名称だ
気に入らないなら自分で会社起こして俺の考えた最強のGPUでも作ればいいさ
まぁ、お前のレベルじゃディスクリートすら無理な事は明らかだがな
早く去れよ糞団子

827 :デフォルトの名無しさん:2016/03/03(木) 22:52:03.02 ID:tH72Ij/h.net
さっき、Anacondaの最新バージョンである2.5.0(64-bit python3.5.1)を入れたの
だけど、それにコマンドプロンプトがデフォルトで入っていないので、pip installが
出来なくて困っています。ipythonやインタラクティヴシェルは入っています。

前のAnacondaのバージョン(python2.7で使っている)であれば、ipythonや
対話シェルからq()やquit()で、普通に、コマンドプロンプトに戻れて、そこから
pip installなどが出来たのになぜなのでしょうか。

普段使っているコマンドプロンプトはpython2.7用になっているので、そこから
python3.5.1用のpip installも出来ません。コマンドプロンプトをpythonのヴァージョン
ごとに切り替えることができるのかもしれないけど、その方法も分かりません。

どなたか、知っている人がいたら教えて下さい。
よろしくお願いします。m(__)m

828 :デフォルトの名無しさん:2016/03/03(木) 23:25:12.80 ID:L7+NtMAj.net
>>827
恐ろしくスレ違いなんだけど
python2系と3系を共存させるならパスを適切に設定しないとダメだよ
詳しくはググってくれ

取り敢えずコマンドプロンプトでpyって打ってからpipしてみたら?

829 :デフォルトの名無しさん:2016/03/03(木) 23:27:56.45 ID:Qh2UpiXS.net
>>821
どう違うの?

830 :デフォルトの名無しさん:2016/03/03(木) 23:45:09.31 ID:L7+NtMAj.net
>>829
なぜググらない?
http://www.gdep.jp/page/view/252

831 :デフォルトの名無しさん:2016/03/04(金) 00:05:36.72 ID:oWoP2ITQ.net
ha?

832 :デフォルトの名無しさん:2016/03/04(金) 00:13:03.67 ID:HJiU7/Cc.net
>>828
パスは、最新のAnacondaをインストールする時に、パスを自動設定するなら
チェックを入れよという欄があって、チェックを入れてインストールを終了
すると、新しい環境設定が入っています。

念のためシステムで環境設定でパスをチェックしたけど、Anaconda3で、
新しいのが入っている。Anacondaは、3ヴァージョン使っている
のだけど、新しくなるほど使いにくくなっている感じですね。


q()でコマンドプロンプトに戻れると>>827で書いたのは、間違えだった。
それは、R言語のやり方だった。

833 :デフォルトの名無しさん:2016/03/04(金) 00:16:41.20 ID:oWoP2ITQ.net
nv用語だとローカルにないものが
ローカルメモリなんだなこりゃややこしい

834 :デフォルトの名無しさん:2016/03/04(金) 00:25:56.51 ID:HJiU7/Cc.net
今更の問題だけど、pythonはやはり、2系と3系の互換・移植性が
悪いのが問題かな。今日買った、

基礎 Python (IMPRESS KISO SERIES) 単行本(ソフトカバー) – 2016/3/4

大津 真 (著)

ttp://www.amazon.co.jp/%E5%9F%BA%E7%A4%8E-Python-%E5%A4%A7%E6%B4%A5-%E7%9C%9F/dp/484438015X

が、3系で、ちょっと変わった雰囲気のコードの使い方があったので、面白いの
だけど、2系と併用だと>>827みたいになって、pip installも出来ないし、
ipythonでしか、3系が使えないのが困りもの。2系で使える3系のものも
あるけれど…。

2系を全部消せば3系を使えるのは分かっているのだけど、2系の方が
出来ることがまだまだ多い感じがするからね。まだ2系が多数派でしょ。

あ、仮想環境ヴァージョンを切り替えてやればいいのかな。

835 :デフォルトの名無しさん:2016/03/04(金) 00:38:24.47 ID:HJiU7/Cc.net
あ、pythonのクダスレだと、勘違いしてました。
失礼いたしました。

836 :デフォルトの名無しさん:2016/03/04(金) 00:40:30.37 ID:UJ4KYtRn.net
>>833
何を今更
だからこそ嘘を垂れ流す糞団子はここから去れよ

837 :,,・´∀`・,,)っ-○○○:2016/03/04(金) 01:07:12.95 ID:qzn/KKB0.net
ウソ扱いしてるお前が自覚のないウソつきなんだけど

838 :,,・´∀`・,,)っ-○○○:2016/03/04(金) 01:15:03.88 ID:qzn/KKB0.net
>>833
もっとも、スピルされたレジスタのデータが真っ先に格納されるのはGDDR*ではなく
キャッシュだけどな
なぜならキャッシュはDRAMの読み書きを高速化するためにあるから

839 :デフォルトの名無しさん:2016/03/04(金) 02:24:38.67 ID:pNMSyXd+.net
自覚のない荒らし
それが団子の糞風味クオリティ

840 :デフォルトの名無しさん:2016/03/04(金) 07:49:00.48 ID:o39fhgVG.net
>>837
何が嘘なのか具体的に示せよ
俺は具体的に示したろ
糞団子は去れ

841 :デフォルトの名無しさん:2016/03/04(金) 07:50:34.02 ID:o39fhgVG.net
>>838
>なぜならキャッシュはDRAMの読み書きを高速化するためにあるから
そんなパソコン教室の初日に教わる様な内容を語るスレじゃねぇよ
糞団子は去れ!

842 :デフォルトの名無しさん:2016/03/04(金) 08:15:25.08 ID:uG62vIs+.net
匿名で俺って言い張られてもw

843 :デフォルトの名無しさん:2016/03/04(金) 09:40:06.12 ID:sQ9JXJsj.net
>>842
流れが読めないなら黙ってればいいのに

844 :デフォルトの名無しさん:2016/03/04(金) 09:48:28.02 ID:/J2AWB0A.net
Talk me.

845 :デフォルトの名無しさん:2016/03/04(金) 10:12:42.01 ID:uG62vIs+.net
オレオレ、俺だよ俺
俺だよ

かまってよ

ってかw

846 :デフォルトの名無しさん:2016/03/04(金) 11:01:16.11 ID:z53XqiUN.net
お前つまんねぇよ

847 :デフォルトの名無しさん:2016/03/04(金) 11:46:47.03 ID:pNMSyXd+.net
団子ちゃん悔しいだろホントはおともだちをつくってワイワイ話したいんだろ?
じゃあ自作板帰ろうな

848 :デフォルトの名無しさん:2016/03/04(金) 12:02:03.20 ID:uG62vIs+.net
オレオレ主張したいんならコテハンつけろよ

849 :デフォルトの名無しさん:2016/03/04(金) 15:46:55.78 ID:XhYLrWiK.net
俺だよ

850 :デフォルトの名無しさん:2016/03/04(金) 19:33:33.59 ID:o39fhgVG.net
答えに窮すると何故か匿名になる
安定の自演糞団子

851 :デフォルトの名無しさん:2016/03/04(金) 19:39:28.79 ID:dJLsGuAT.net
自分がやってるからって
他人もそうだと思うなよ
病気の人

852 :デフォルトの名無しさん:2016/03/04(金) 21:27:27.28 ID:nvZ+jZcm.net
まだやってんのかよっw。
シェアードメモリはローカルメモリだよwww。

853 :,,・´∀`・,,)っ-○○○:2016/03/04(金) 21:40:33.21 ID:qzn/KKB0.net
方言のない一般名称でいうと「スクラッチパッドメモリ」か

854 :デフォルトの名無しさん:2016/03/04(金) 21:49:33.06 ID:pNMSyXd+.net
ぼろ出してもコテでい続けるのは正直苦痛だろ?
















な、団子

855 :デフォルトの名無しさん:2016/03/04(金) 22:01:24.79 ID:WoARA1cN.net
>>852
>>830

856 :,,・´∀`・,,)っ-○○○:2016/03/04(金) 23:13:53.73 ID:qzn/KKB0.net
名無しばっかりだと不安で団子認定に必死な病気の癖に

857 :デフォルトの名無しさん:2016/03/05(土) 04:38:45.77 ID:GYxVvQjW.net
いい加減通常時に戻ってください
正直どっちもどっちなんだよね
どっちも邪魔

858 :デフォルトの名無しさん:2016/03/05(土) 07:19:08.49 ID:dgmAi0Ww.net
マジで糞団子は去ってくれ
嫌われてるの自覚しろ

859 :デフォルトの名無しさん:2016/03/05(土) 07:44:33.94 ID:I9HpfPeT.net
コテの人はいい加減ブログでもなんでも始めたらいいよ
荒らし行為だよ

コテ煽る人もやめてよ

860 :デフォルトの名無しさん:2016/03/05(土) 09:30:50.56 ID:pYtkFW+i.net
団子さん
お願いです。
あなたが来てからこのスレは機能しなくなりました。
ここは数少ないCUDAの情報交換の場です。
もう、ここに来ないで下さい。

861 :デフォルトの名無しさん:2016/03/05(土) 09:48:51.08 ID:7wCpFrY5.net
実際の荒しは倍精度、精神病の人ですけどね

862 :デフォルトの名無しさん:2016/03/05(土) 10:46:20.52 ID:we9m+Baq.net
こいつ一人が団子団子連呼してて
すげー気持ちわりーよ

863 :デフォルトの名無しさん:2016/03/05(土) 10:51:01.60 ID:7wCpFrY5.net
好きなんだろ
付き合っちゃいなよ

864 :デフォルトの名無しさん:2016/03/05(土) 11:18:09.46 ID:nqZZ4Fac.net
最近は傷心の団子をおもちゃにするうんこごっこが流行ってるのか?

865 :デフォルトの名無しさん:2016/03/05(土) 11:20:03.53 ID:7wCpFrY5.net
いいえ
精神病の人をどうバカにするかが流行ってます

866 :デフォルトの名無しさん:2016/03/05(土) 14:14:59.66 ID:oAjMaO0h.net
つーかまともな話しようとすると団子認定されるのは書き込む気を無くさせるためなのだろうか。
技術的な話をすると内容がどうでも団子にされるから、そういう話が理解できないのと、ある意味団子崇拝が酷いのだろうな。

867 :デフォルトの名無しさん:2016/03/05(土) 15:25:30.62 ID:PxQJKL1y.net
>>861
団子はある程度(正しいかは別にして)技術的話が出来るけど、
その人はAMDは倍精度がすごいよ、GPGPUの勝者はAMDで決まり!と
I love 団子だけだからな。

868 :デフォルトの名無しさん:2016/03/05(土) 16:26:59.56 ID:nqZZ4Fac.net
あんまり団子をおもちゃにするなって
ウンコの匂いが充満するじゃないかw

869 :デフォルトの名無しさん:2016/03/05(土) 16:43:06.41 ID:hF4tqJh9.net
こんにちは。

CUDA では、__device__ 修飾された関数は、GPU内部から呼び出せますが、
再帰コールが出来ないのはなぜですか?

以下はできますよね?

__device__ int aaa(int x) {
 return x * 2;
}

__device__ int bbb(int y) {
 return aaa(y) + 3;
}

では、以下は駄目ですか?
__device__ int kaijou(int y) {
 if ( y == 1 ) {
  return y;
 }
 else {
  return y * kaijou(y-1);
 }
}

870 :デフォルトの名無しさん:2016/03/05(土) 17:05:18.01 ID:nqZZ4Fac.net
団子は答えなくて結構

871 :デフォルトの名無しさん:2016/03/05(土) 17:17:05.46 ID:oAjMaO0h.net
ハード的に絶対できないと言うことも無いのだろうが、スタックどれだけ使うか計算できないってのが大きいんじゃね。

872 :デフォルトの名無しさん:2016/03/05(土) 19:01:23.69 ID:wCUhFShW.net
最適化の邪魔になるから最初から再帰はやめてねーんってことかな。

873 :デフォルトの名無しさん:2016/03/05(土) 20:36:21.36 ID:pXJbdtfw.net
>>870
おまえが正解答えてやれば
あれずに済むだろ

874 :,,・´∀`・,,)っ-○○○:2016/03/05(土) 21:10:49.87 ID:18qofrJ5.net
>>873
俺ならその無駄レス書いてる暇で書けるぞ>>870は無能だから理解できないだけで

>>871
CUDAの自称コアが要素毎プレディケートつきのSIMDユニットを
マルチコアって言い張ってるだけから本物の独立したコアでないから
で終わりなんだけどね。
命令ポインタは「自称コア」ごとに独立してないんだ

「分岐」も本物の分岐ではなく、if-else節を全部一列のコードに展開してプレディケート
しているだけ。プレディケートビットの全要素が0あるいは1になって初めて関数を
飛び越えることができる。

SIMDの要素(自称)ごとに命令ポインタと関数コールスタックを管理できて別々の
命令ステートを独立して持てるならそれは既にSIMDじゃない

875 :,,・´∀`・,,)っ-○○○:2016/03/05(土) 21:25:15.51 ID:18qofrJ5.net
ベクトルを隠蔽しない、1ワープを1つのスレッドとして処理できるプログラミングモデルが
提供されるなら再帰は理屈上可能
それはCPUのSIMDの在り方と同じってことだけど

876 :デフォルトの名無しさん:2016/03/05(土) 21:53:08.36 ID:LlD1+gMh.net
独立したコアという前提だから、コア毎のレジスタで表現できる範囲の処理しか出来ないって事だと思ってたけど違うのか。

877 :デフォルトの名無しさん:2016/03/05(土) 22:00:09.02 ID:oAjMaO0h.net
基本はSIMDプロセッサでの本当の分岐だよ。
簡単な処理ならpredicate実行で済ますけどこれはモダンなプロセッサではSIMT、SIMD、に限らず一般的な手法

状態保存のメモリを最小化するためにdivergent pathを深さ優先でスキャンしていくから、どこかのdivergent pathで無限ループになるとwarp内の別threadには何時までたっても制御が帰ってこないけどね。

878 :,,・´∀`・,,)っ-○○○:2016/03/05(土) 22:00:10.11 ID:18qofrJ5.net
再帰だけならCell SPUすら出来てるからね
命令ポインタの制約のある偽りのコアであること以上の理由はないでしょう


末尾再帰をループに展開するオプションすら用意してないのは処理系の実装の手抜きだろうと思うけど

879 :デフォルトの名無しさん:2016/03/05(土) 22:04:28.99 ID:0d+Ags99.net
可能な限り手を抜くのがハードにとってのGPGPUという物かも

880 :,,・´∀`・,,)っ-○○○:2016/03/05(土) 22:12:52.44 ID:18qofrJ5.net
実害は具体的にはバックトラッキング型の探索アルゴリズムが使えない
(実装方法に制限がある)とかかな

881 :デフォルトの名無しさん:2016/03/05(土) 22:24:17.32 ID:oAjMaO0h.net
cudaは性能出すために最適化しだすと、結局SIMD構造を意識して記述することになる。
で結局、SIMTでプログラミングするメリットを感じなくなる。

scatter,gatherも便利なのだけど、それしかないから、性能出すためにアラインメント気にしながら連続アドレスにアクセスするように記述していると、普通のSIMDのようにアドレス1つ計算すればすむのに無駄だなぁと。

で、複数のアドレスを受け取ったハードウェアが同じキャッシュラインに乗っていることを検出してメモリアクセス回数を最小化するとか、バカじゃねと。

まあGCNはそこら辺の無駄に対応していて美しいのだが、いかんせんソフトやサポート体制がクソ過ぎて。

882 :デフォルトの名無しさん:2016/03/05(土) 23:05:45.56 ID:wCUhFShW.net
>>877
>状態保存のメモリを最小化するためにdivergent pathを深さ優先でスキャンしていく
横からですが参考になります。
再帰がまずいっていうより結果として条件分岐をたくさん通るのがまずいって感じですかね。

883 :デフォルトの名無しさん:2016/03/06(日) 08:40:29.75 ID:e28R5O2W.net
最近は、5,000円くらいの低価格GPUでも、Keplerコアを使っていて、
Fermiコアの上位互換だから、再帰コールも出来るのですか?

でも、関数のローカル変数は、C/C++と全く同じで、スレッド独立だが、
関数引数だけは、スレッド共通だと聞きましたが、これだと再帰コール
できなさそうですが。

884 :デフォルトの名無しさん:2016/03/06(日) 11:18:07.40 ID:5MH1CF8G.net
あーあまた糞団子が答えちゃった
このスレの事情を知らん奴が見ると余計に迷うぞ

885 :,,・´∀`・,,)っ-○○○:2016/03/06(日) 11:35:37.89 ID:ejwavTIm.net
答えられないクズは存在する価値ないでしょ
とっとと失せろよゴミ

886 :,,・´∀`・,,)っ-○○○:2016/03/06(日) 11:48:38.53 ID:ejwavTIm.net
つーか俺も含めてまだ正解出してないんだけどな

んで正解はこれ、Kepler以降なら再帰に【一応は】対応
http://developer.download.nvidia.com/assets/cuda/files/CUDADownloads/TechBrief_Dynamic_Parallelism_in_CUDA.pdf

誰かツッコミ入れると思ったけど期待外れだったなあ
まあ、俺の説明も何も間違ってないのだけど
(>>874も「出来ない」という説明をしてるのではなく制約を説明しているだけ)

887 :デフォルトの名無しさん:2016/03/06(日) 13:04:30.88 ID:ZW4nksfm.net
確かにこの団子は鳥屋氏じゃないな。
鳥屋氏はこういう物言いはしない。

888 :,,・´∀`・,,)っ-○○○:2016/03/06(日) 13:12:58.97 ID:ejwavTIm.net
お前は、中村ちゃぷにちゃんが中身の団子が存在すると思ってるんだ
そこから既に間違ってるよ

889 :,,・´∀`・,,)っ-○○○:2016/03/06(日) 13:18:27.49 ID:ejwavTIm.net
ドァンゴが、13:18くらいを、お伝えします

890 :,,・´∀`・,,)っ-○○○:2016/03/06(日) 13:20:55.68 ID:ejwavTIm.net
ちゃぷにさんはだんごやさんを嫌ってるはずなので彼がその顔文字を使う理由はないんだよ
自分でNGキーワードに入れてる宣言してたし

891 :,,・´∀`・,,)っ-○○○:2016/03/06(日) 13:22:13.40 ID:ejwavTIm.net
更に言うと彼は精神が壊れて自作PC板で機械翻訳コピペを貼るだけの人に成り下がってしまった

892 :デフォルトの名無しさん:2016/03/06(日) 13:49:39.00 ID:5MH1CF8G.net
団子=鳥屋でも別にいいじゃねーか
糞撒き散らすだけならどっちもNGだ

893 :,,・´∀`・,,)っ-○○○:2016/03/06(日) 13:52:02.23 ID:ejwavTIm.net
中村ちゃぷに君と一緒にしないでくれる?

894 :デフォルトの名無しさん:2016/03/06(日) 14:37:46.02 ID:ZW4nksfm.net
>>891
鳥屋氏に何かあったの? そっちが気になる。

895 :,,・´∀`・,,)っ-○○○:2016/03/06(日) 14:39:09.93 ID:ejwavTIm.net
>>894
だから本人に直接聞いて来いよTwitterアカウントあるだろ

896 :デフォルトの名無しさん:2016/03/06(日) 14:42:36.51 ID:ZW4nksfm.net
別に本人と直接連絡とれるけどなんか聞きにくいじゃん。
おしえてよ。

897 :,,・´∀`・,,)っ-○○○:2016/03/06(日) 14:43:25.75 ID:ejwavTIm.net
俺なら聞けるのか?w
デタラメ言っちゃうけど?

898 :デフォルトの名無しさん:2016/03/06(日) 14:47:00.65 ID:ZW4nksfm.net
本人に根掘り葉掘り聞くよりいいよ。

899 :,,・´∀`・,,)っ-○○○:2016/03/06(日) 14:48:10.37 ID:ejwavTIm.net
ちなみに彼は10年以上前から初心者の質問板で「メンヘル屋」と呼ばれてたぞ

900 :デフォルトの名無しさん:2016/03/06(日) 23:01:58.93 ID:YHBwXFpN.net
日曜日の真昼間に2ch張り付きかよ
さすが糞団子だな

901 :デフォルトの名無しさん:2016/03/07(月) 07:46:57.77 ID:7lblB3Ic.net
平日の日中ならいいのかw

902 :デフォルトの名無しさん:2016/03/07(月) 12:32:22.52 ID:+p3ICmyk.net
頼むからNGの外に出てくるな>>901=糞団子

903 :デフォルトの名無しさん:2016/03/07(月) 17:04:45.58 ID:GuUCesj8.net
マジで氏ねよ!ここ糞団子!!
お前のせいでスレがめちゃくちゃ!

904 :デフォルトの名無しさん:2016/03/07(月) 19:13:33.67 ID:IaXW9rhX.net
>>901
なんでそう思ったの?

905 :デフォルトの名無しさん:2016/03/07(月) 21:28:52.80 ID:Xyilrqi/.net
病気の人が召還してる

906 :デフォルトの名無しさん:2016/03/08(火) 00:17:54.26 ID:zUXR2K3c.net
糞団子は>>900が効いてる様だなw

907 :,,・´∀`・,,)っ-○○○:2016/03/08(火) 01:03:04.66 ID:4ClxYf7a.net
普通ジャン

908 :デフォルトの名無しさん:2016/03/08(火) 06:06:38.08 ID:sCq0/cKi.net
家でpcにかじり付いてる人なんだろ
病気の人は

909 :デフォルトの名無しさん:2016/03/08(火) 07:07:19.82 ID:zUXR2K3c.net
日曜日に一日中2chが普通なんだ
さすが糞団子

910 :デフォルトの名無しさん:2016/03/08(火) 22:50:34.72 ID:f+sFTvrc.net
2chやっているおっさんなら起きてから寝るまで2chが普通だろ
いまはスマホで仕事サボって2chしているおっさんが多いからな

911 :デフォルトの名無しさん:2016/03/08(火) 22:59:24.25 ID:8p7AV+as.net
>>910
今やちょっとゆる会社だと、トイレが満室になって10分待ちだからな。

912 :デフォルトの名無しさん:2016/03/08(火) 23:40:27.24 ID:SNBHGm11.net
そんなにトイレが好きならドアを接着剤で止めてやろうかと思った

913 :デフォルトの名無しさん:2016/03/09(水) 00:03:43.04 ID:QI7bsFp8.net
平日仕事サボって2chなら、まぁわからなくも無い
理解できないのは日曜日の朝から晩まで2ch張り付きの糞団子

914 :,,・´∀`・,,)っ-○○○:2016/03/09(水) 00:29:18.66 ID:EC2EcKU9.net
スマホゲーの体力ゲージ消化してるだけじゃね?
2chなんてとっくにブーム終わってるだろ

915 :デフォルトの名無しさん:2016/03/09(水) 12:01:37.54 ID:Bn2mru1A.net
>>913
話し相手が欲しいんだよ
スレをウンコ臭くしておいて

916 :デフォルトの名無しさん:2016/03/09(水) 17:46:55.52 ID:+SKBM1r7.net
へえ、お前、寂しがり屋なんだな

917 :デフォルトの名無しさん:2016/03/09(水) 19:21:18.15 ID:QI7bsFp8.net
糞団子が急に大人しくなって笑える
かなり効いた様だなw

918 :デフォルトの名無しさん:2016/03/09(水) 19:28:24.12 ID:n0++16X2.net
かまってちゃん


919 :デフォルトの名無しさん:2016/03/09(水) 21:45:15.09 ID:Bn2mru1A.net
コテ団子をNGにして華麗にスルーしないとね
名無しで煽る時は怒るんじゃなくてファブリーズでも置いておきましょう

920 :デフォルトの名無しさん:2016/03/09(水) 22:07:10.45 ID:F7KphU9Z.net
そんなにかまってほしいのか

921 :デフォルトの名無しさん:2016/03/09(水) 22:13:39.55 ID:QI7bsFp8.net
それはお前だろ
さっきからチョロチョロウザい

922 :デフォルトの名無しさん:2016/03/09(水) 22:45:09.81 ID:F7KphU9Z.net
おまえがそれを言うのか

923 :デフォルトの名無しさん:2016/03/10(木) 00:12:27.45 ID:lJwnXkdm.net
なんだ
やっぱり、かまってちゃんか?

924 :デフォルトの名無しさん:2016/03/10(木) 05:26:45.85 ID:ElNFIbXj.net
っ鏡

925 :デフォルトの名無しさん:2016/03/10(木) 20:04:24.43 ID:lJwnXkdm.net
いや、朝の5時から鏡出されても…

926 :デフォルトの名無しさん:2016/03/10(木) 22:07:55.24 ID:Kwch6Nj+.net
ここはプ板のかまってちゃんが集うところです
Nvidiaユーザーってへんなやつ多いよね。どう?

927 :,,・´∀`・,,)っ-○○○:2016/03/10(木) 23:24:17.96 ID:36+0Q/RN.net
ミラーマン!
植草教授!

928 :デフォルトの名無しさん:2016/03/11(金) 00:12:19.52 ID:0VtVfbcA.net
はい
かまってちゃんの変な奴来ました

929 :デフォルトの名無しさん:2016/03/12(土) 13:14:03.96 ID:7MrNfl0C.net
誰も居ない?

930 :デフォルトの名無しさん:2016/03/14(月) 00:27:24.09 ID:tMjTpPPM.net
糞団子が荒らして過疎ったな
ホントろくでもねぇ奴だったな

931 :デフォルトの名無しさん:2016/03/15(火) 19:07:06.06 ID:NepgFCLn.net
では素人が質問してもいいですか
オプションのCUDA RuntimeをStatic CUDA runtime library (-cudart static)にしているのにもかかわらずcudart32_75.dllが生成されるんですけど不要ですよね?
消しても動くのでいらなさそうではあるんですけど一応残してます

932 :デフォルトの名無しさん:2016/04/06(水) 05:42:39.04 ID:b0ehB924.net
https://devblogs.nvidia.com/parallelforall/inside-pascal/
https://devblogs.nvidia.com/parallelforall/wp-content/uploads/2016/04/gp100_SM_diagram.png

933 :デフォルトの名無しさん:2016/04/06(水) 19:11:29.54 ID:7FwwXsE8U
NVIDIA DGX-1がダサいだー

934 :デフォルトの名無しさん:2016/04/08(金) 23:49:33.98 ID:Oe8UeTI2.net
>>874
この辺りからの流れはとても勉強になる

935 :デフォルトの名無しさん:2016/04/13(水) 00:20:39.50 ID:vTxSOF48.net
>>930
CUDAを使ったことがない連中がたくさん来場してたからな
CUDAは映像・画像処理の一般プログラムではなく専門性が非常に高い分野(機械学習や車の自動運転とか)で使うって感じに
なってきたからな。

936 :,,・´∀`・,,)っ-○○○:2016/04/13(水) 00:37:51.36 ID:uE1XEE4+.net
レジスタファイルがダイ全体で14Mもあるとかホント化け物ですね
アクセスレイテンシはでかそう

937 :デフォルトの名無しさん:2016/04/13(水) 18:30:01.95 ID:P1TlabSM.net
言っているそばからw

938 :デフォルトの名無しさん:2016/04/18(月) 20:53:52.86 ID:npM92plo.net
以前エクサスケールへむけての改良点てやってたけど
warpサイズが4になったりレジスタファイルの階層化とか
やってるのかな

939 :デフォルトの名無しさん:2016/04/29(金) 07:41:21.25 ID:H9O34uIX.net
>>935
機械学習はマルチGPU

940 :デフォルトの名無しさん:2016/04/29(金) 19:49:33.11 ID:F6Ql+W8p.net
Pascalは忘れられてるけど、倍精度も強化されてるんだよね
単精度を徹底的に削った思い切った方針には目を見張った

941 :,,・´∀`・,,)っ-○○○:2016/04/29(金) 21:17:01.56 ID:RuK53SvA.net
大型スパコン案件に特化して設計したものをGPUに流用してるだけで
それが全部だと言い張られても困りますが

942 :デフォルトの名無しさん:2016/04/29(金) 22:49:34.54 ID:wZxrhoKH.net
なんでおまえが困るんだよw

943 :デフォルトの名無しさん:2016/04/30(土) 00:41:27.46 ID:oV2mml7H.net
GPGPUは深層学習のブレークで今後一気に需要が高まる?

944 :デフォルトの名無しさん:2016/04/30(土) 11:52:36.46 ID:xhIIf3AZ.net
高まるだろうね
倍精度と半精度がちょうどいい具合

そうやってGPGPU市場を頑張ってもらって12.1の妨害行為は止めて欲しいわ

945 :デフォルトの名無しさん:2016/04/30(土) 22:20:59.01 ID:4IpkHcLg.net
その需要の大半はnVIDIAが発表したEyerissみたいな専用チップに喰われるのでは

946 :,,・´∀`・,,)っ-○○○:2016/04/30(土) 22:33:42.88 ID:wNNJHcCv.net
あれはCNNに特化したものでGPUほどのプログラマビリティはない
ディープラーニングって一言で言っても1個のASICで賄えるほど狭い分野じゃない

947 :デフォルトの名無しさん:2016/04/30(土) 22:45:19.47 ID:tL+Fobdg.net
CNNに特化て具体的には行列演算てこと?

948 :,,・´∀`・,,)っ-○○○:2016/04/30(土) 23:20:42.71 ID:wNNJHcCv.net
疎行列に特化したマトリクス演算回路とそれなりの帯域のリングバスネットワークが主な構成要素
って覚えておけば大体間違いない
実はGPUの特性と正反対(GPUは密行列なら得意)

949 :デフォルトの名無しさん:2016/04/30(土) 23:25:48.76 ID:WnEgJTfp.net
fermi世代ってdouble⇒floatで倍速なはずだよね?
ちっとも速くならないんだが。

950 :デフォルトの名無しさん:2016/05/01(日) 05:03:39.83 ID:IAB0IXGv.net
大分前だけど構造体でデータを渡すとdouble扱いになったことはある
原因は不明

951 :デフォルトの名無しさん:2016/05/01(日) 10:04:45.15 ID:c2Ftkl1w.net
>>950
thx。

調べてみた感じだと、倍精度が無いカードで暗黙のdouble→floatキャストがあったり、
floatへの数値代入で接尾語Fを付けないとdoubleにキャストされたりもあるっぽいね。

fermiでarch=compute_20,sm_20指定してるから基本的には宣言通りだと思ったのだが、実際どうなってるのか・・。
全部floatに置き換えてもわずかしかスピードアップしないのは、バイトコピー分が浮いてるだけな気がする。

952 :デフォルトの名無しさん:2016/05/01(日) 10:24:43.67 ID:tKi6j9CT.net
匿名通信(Tor、i2p等)ができるファイル共有ソフトBitComet(ビットコメット)みたいな、
BitTorrentがオープンソースで開発されています

言語は何でも大丈夫だそうなので、P2P書きたい!って人居ませんか?

Covenantの作者(Lyrise)がそういう人と話したいそうなので、よろしければツイートお願いします
https://twitter.com/Lyrise_al

ちなみにオイラはCovenantの完成が待ち遠しいプログラミングできないアスペルガーw


The Covenant Project
概要

Covenantは、純粋P2Pのファイル共有ソフトです

目的

インターネットにおける権力による抑圧を排除することが最終的な目標です。 そのためにCovenantでは、中央に依存しない、高効率で検索能力の高いファイル共有の機能をユーザーに提供します

特徴

Covenant = Bittorrent + Abstract Network + DHT + (Search = WoT + PoW)

接続は抽象化されているので、I2P, Tor, TCP, Proxy, その他を利用可能です
DHTにはKademlia + コネクションプールを使用します
UPnPによってポートを解放することができますが、Port0でも利用可能です(接続数は少なくなります)
検索リクエスト、アップロード、ダウンロードなどのすべての通信はDHT的に分散され、特定のサーバーに依存しません


953 :デフォルトの名無しさん:2016/05/01(日) 11:36:33.54 ID:4G1NPxxh.net
eyerissは大量のデーターが複数のフィルター処理されるのに向いてる

954 :デフォルトの名無しさん:2016/05/09(月) 19:46:40.50 ID:ZKk/r1uF.net
質問があります
環境はwindows 10 | arch linux, cuda 7.5, gcc | visual c++ 2013です

#include <stdio.h>

__global__ void a(char *A){
}

int main(){
a<<1, 1>>(); // (1)
}

(1)で「expression must have integral or enum type」とエラーが出て困っているのですが
ホストコンパイラを呼び出す際に何か間違えているのでしょうか

コンパイルに使用したコマンドは
windows
 nvcc -ccbin "C:\Program Files (x86)\Microsoft Visual Studio 12.0\VC\bin" -c -DWIN32 -D_CONSOLE -D_MBCS -Xcompiler /EHsc,/W3,/nologo,/Wp64,/O2,/Zi,/MT test.cu
linux
 (失念したが大体同じ)
です

955 :デフォルトの名無しさん:2016/05/09(月) 23:47:16.41 ID:+C4ZnXlR.net
>>954
≪≫のところじゃない?
二重カッコじゃなくて、三重カッコにすべきかな

二重カッコだと別の演算子になって、意味が変わってくる

956 :デフォルトの名無しさん:2016/05/09(月) 23:54:10.06 ID:ZKk/r1uF.net
ああ、3重括弧でしたか
間抜けなミスで騒いでしまって申し訳ないです
ありがとうございます

957 :デフォルトの名無しさん:2016/05/20(金) 21:20:51.03 ID:OCEBmLiZ.net
グーグルがTensolFlow用のTPUとかいうの作ってたらしいがどうなの?

958 :sage:2016/05/23(月) 17:33:55.45 ID:w8cwn6FF.net
CUDA fortranで一つの配列に対して2GB以上のメモリを
アロケートすることが出来ず、
PGIのサイト見たら「2GBの壁」とかって説明されているのですが、
これってどうにか克服出来ないですかね?

959 :デフォルトの名無しさん:2016/05/23(月) 18:16:51.67 ID:rInNNyjw.net
>>958
何gbくらい必要なの?

960 :デフォルトの名無しさん:2016/05/23(月) 18:47:01.54 ID:hrdyo10f.net
>>958
fortranなんか使っているからだよ。

961 :デフォルトの名無しさん:2016/05/23(月) 19:56:12.00 ID:Y87SDCLt.net
32ビットの壁ってこと?

962 :デフォルトの名無しさん:2016/05/23(月) 22:17:34.30 ID:COcpIksW.net
CU_LIMIT_MALLOC_HEAP_SIZE か cudaLimitMallocHeapSize を拡げりゃいいんじゃないかな。

963 :デフォルトの名無しさん:2016/05/24(火) 12:32:54.07 ID:eVw6ZtsBc
>>959
6GB位ですかね

964 :デフォルトの名無しさん:2016/06/01(水) 19:25:08.39 ID:XXwwXNx4.net
ttps://developer.nvidia.com/cudnn
>Supported on Windows, Linux and MacOS systems with Pascal, Kepler, Maxwell, Tegra K1 or Tegra X1 GPUs.
のTegra K1の文字を見て、サポート復活を喜んでいたのですが、
Tegra K1は32bitでして、
必要なCUDA7.5は64bit必須
もしかして、cuDNNとCUDAは無関係で独立して使えたりしますか?

965 :デフォルトの名無しさん:2016/06/03(金) 02:14:25.16 ID:qw00fiPh.net
CUDA APIで1番始めに呼んだAPIは時間がかかるとのことですが、
時間計測に影響が出ないように事前にどんな関数を呼んでますか?
慣習だったり、よく使われる関数があれば教えてください。

966 :デフォルトの名無しさん:2016/06/04(土) 23:09:31.90 ID:EzTgQ+dX.net
工学じゃなくて物理系でもcuda覚える価値ってある?

967 :デフォルトの名無しさん:2016/06/04(土) 23:54:08.10 ID:64JgiXiE.net
安く実験したいなら
N体や粒子法なんかは普通のCPUじゃたいしたことはできない

968 :デフォルトの名無しさん:2016/06/05(日) 01:52:52.19 ID:2/2r2xD9.net
むしろ、科学計算したい人のための技術だと思う

969 :デフォルトの名無しさん:2016/06/12(日) 02:11:09.53 ID:F98p4y3q.net
他人にも聞こえんの?

970 :デフォルトの名無しさん:2016/06/12(日) 12:50:48.33 ID:4gtPrZLr.net
この部分がエラー吐くんだが
cuda7.5

struct cuComplex {
float r;
float i;
cuComplex( float a, float b ) : r(a), i(b) {}
__device__ float magnitude2( void ) {
return r * r + i * i;
}
__device__ cuComplex operator*(const cuComplex& a) {
return cuComplex(r*a.r - i*a.i, i*a.r + r*a.i);
}
__device__ cuComplex operator+(const cuComplex& a) {
return cuComplex(r+a.r, i+a.i);
}
};

971 :デフォルトの名無しさん:2016/06/12(日) 13:24:56.47 ID:MCoM6cvm.net
CUDA by EXAMPLEのサンプル?
<cuComplex.h>の定義とぶつかってるんじゃね?

972 :デフォルトの名無しさん:2016/06/12(日) 13:39:51.78 ID:4gtPrZLr.net
>>971
そうそう
エラーはこんな感じ

Documents/Visual Studio 2013/Projects/template/cuda_by_example/chapter04/julia_gpu.cu(43): error
: calling a __host__ function("cu_Complex::cu_Complex") from a __device__ function("julia") is not allowed

973 :デフォルトの名無しさん:2016/06/12(日) 13:50:41.56 ID:MCoM6cvm.net
試してないけど、コンストラクタに__device__付けてないのが悪いと言っているような。

974 :デフォルトの名無しさん:2016/06/12(日) 14:09:28.62 ID:4gtPrZLr.net
>>973
ありがとうございます
解決しました

975 :デフォルトの名無しさん:2016/06/15(水) 14:42:46.55 ID:d2Xou3GL.net
【GPGPU】くだすれCUDAスレ part8【NVIDIA】
http://echo.2ch.net/test/read.cgi/tech/1416492886/

976 :デフォルトの名無しさん:2016/06/15(水) 14:44:14.63 ID:d2Xou3GL.net
誤爆

【GPGPU】くだすれCUDAスレ part8【NVIDIA】
http://echo.2ch.net/test/read.cgi/tech/1465969275/

977 :デフォルトの名無しさん:2016/06/16(木) 14:11:42.71 ID:hLUHI1zp.net
615 :名前は開発中のものです。:02/06/10 21:48 ID:???
>将来的にはスカートの頂点を触ってヒラヒラさせたりしたいので、どうせシステムメモリーに
ボーンでやる気なのか?つらそー。

616 :◆CKmHzWpc:02/06/11 03:48 ID:zXaLQtp.
みなさんありがとうございます
1.モデルを分割するのが嫌→頂点シェーダ−を使うorシステムメモリに置いてソフトでやる
2.モデルを分割してもいい→ハードのジオメトリブレンドを使ってやる・・
というのが考えられる・・・んですよね
色々組み合わせを試して、高速なのを選びたいと思います

>>627
これは、スカートの頂点をCPUで直接操作しようと思っています
ボーンでやらずに、簡単なクロスシュミレーションのような事を目指しています
どうせモデルの一部をシステムメモリに置くなら、もう全部システムメモリにし
てもいいか、と思ったのです

978 :デフォルトの名無しさん:2016/07/08(金) 23:35:06.27 ID:6MyfUlG7/
>>958
CUDAじゃなくてFortranでの問題かもしれんね
mcmodelオプションかなあ
しかし1変数に6GBとかちょっと信じがたい

979 :デフォルトの名無しさん:2016/07/20(水) 14:03:52.95 ID:S0wpPWZM.net
tess

980 :デフォルトの名無しさん:2016/09/02(金) 13:17:38.94 ID:W3BuWeJb.net
erlangならね

981 :デフォルトの名無しさん:2016/09/06(火) 19:38:14.96 ID:MfZbc6Jb.net
まだ埋まってなかった

982 :デフォルトの名無しさん:2016/10/03(月) 10:11:13.82 ID:1bWakqV9.net
pascal titan xでcudaを動かしている人に質問ですが高負荷時にクロックダウンは起きませんか

983 :デフォルトの名無しさん:2017/02/11(土) 05:41:42.45 ID:GCRxMqXs.net
埋め

984 :デフォルトの名無しさん:2017/03/01(水) 20:35:36.75 ID:G4g91z/5.net
は最多か

985 :デフォルトの名無しさん:2017/03/03(金) 13:35:21.41 ID:nBceVUOh.net
サクラ

986 :デフォルトの名無しさん:2017/03/03(金) 14:59:54.92 ID:GURukhR9.net
浜田

987 :デフォルトの名無しさん:2017/03/06(月) 16:46:29.52 ID:7tw9lmnR.net
かいな

988 :デフォルトの名無しさん:2017/05/07(日) 11:40:19.10 ID:ehHyxLGM.net
a.exe: a.cu
nvcc -Xcompiler "/wd 4819" a.cu -o a.exe

ウインドーズでメイクファイルで上みたいにやってクダーCコンパイラーでコンパイルしたんですけど
コマンドラインにちゃんと
nvcc -Xcompiler "/wd 4819" a.cu -o a.exe
と表示されたあと
wd
4819
c1xx: fatal error C1083: ソース ファイルを開けません。'略':No such file or directory
a.cu
c1xx: fatal error C1083: ソース ファイルを開けません。'4819':No such file or directory
と出ます。たぶん"に囲まれた中の/がメタ文字じゃないのになぜか消されているとおもうんですけど
なぜエラーになるのか教えてください。
/を//あるいは-に置き換えたらちゃんとコンパイルできました
よろしくお願いします。
" /wd 4819"と"と/の間にスペースを入れても出来ました。

989 :デフォルトの名無しさん:2017/05/07(日) 11:42:54.14 ID:ehHyxLGM.net
>>973
は新スレに移行しました

990 :デフォルトの名無しさん:2017/10/21(土) 21:44:51.57 ID:ch8ppFz8.net
975

991 :デフォルトの名無しさん:2017/10/21(土) 21:45:16.89 ID:ch8ppFz8.net
976

992 :デフォルトの名無しさん:2017/10/21(土) 21:45:35.47 ID:ch8ppFz8.net
977

993 :デフォルトの名無しさん:2017/10/21(土) 21:46:09.62 ID:ch8ppFz8.net
978

994 :デフォルトの名無しさん:2017/10/21(土) 21:46:43.41 ID:ch8ppFz8.net
979

995 :デフォルトの名無しさん:2017/10/21(土) 21:47:04.64 ID:ch8ppFz8.net
980

996 :デフォルトの名無しさん:2017/10/21(土) 21:47:23.30 ID:ch8ppFz8.net
981

997 :デフォルトの名無しさん:2017/10/21(土) 21:47:46.15 ID:ch8ppFz8.net
982

998 :デフォルトの名無しさん:2017/10/21(土) 21:48:12.14 ID:ch8ppFz8.net
983

999 :デフォルトの名無しさん:2017/10/21(土) 21:48:31.31 ID:ch8ppFz8.net
984

1000 :デフォルトの名無しさん:2017/10/21(土) 21:48:48.87 ID:ch8ppFz8.net
985

1001 :デフォルトの名無しさん:2017/10/21(土) 21:49:04.73 ID:ch8ppFz8.net
986

1002 :デフォルトの名無しさん:2017/10/21(土) 21:49:28.95 ID:ch8ppFz8.net
987

1003 :デフォルトの名無しさん:2017/10/21(土) 21:49:46.87 ID:ch8ppFz8.net
988

1004 :デフォルトの名無しさん:2017/10/21(土) 21:50:13.50 ID:ch8ppFz8.net
989

1005 :デフォルトの名無しさん:2017/10/21(土) 21:51:07.97 ID:ch8ppFz8.net
990

1006 :デフォルトの名無しさん:2017/10/21(土) 21:51:27.98 ID:ch8ppFz8.net
991

1007 :デフォルトの名無しさん:2017/10/21(土) 21:51:48.54 ID:ch8ppFz8.net
992

1008 :デフォルトの名無しさん:2017/10/21(土) 21:52:08.22 ID:ch8ppFz8.net
993

1009 :デフォルトの名無しさん:2017/10/21(土) 21:52:26.37 ID:ch8ppFz8.net
994

1010 :デフォルトの名無しさん:2017/10/21(土) 21:52:42.66 ID:ch8ppFz8.net
995

1011 :デフォルトの名無しさん:2017/10/21(土) 21:53:11.93 ID:ch8ppFz8.net
996

1012 :デフォルトの名無しさん:2017/10/21(土) 21:53:27.63 ID:ch8ppFz8.net
997

1013 :デフォルトの名無しさん:2017/10/21(土) 21:53:44.96 ID:ch8ppFz8.net
998

1014 :デフォルトの名無しさん:2017/10/21(土) 21:54:02.51 ID:ch8ppFz8.net
999

1015 :デフォルトの名無しさん:2017/10/21(土) 21:54:28.40 ID:ch8ppFz8.net
1000

1016 :2ch.net投稿限界:Over 1000 Thread
2ch.netからのレス数が1000に到達しました。

総レス数 1016
249 KB
掲示板に戻る 全部 前100 次100 最新50
read.cgi ver 2014.07.20.01.SC 2014/07/20 D ★