PPt4Web Хостинг презентаций

Главная / Информатика / Иерархия памяти CUDA
X Код для использования на сайте:

Скопируйте этот код и вставьте его на свой сайт

X

Чтобы скачать данную презентацию, порекомендуйте, пожалуйста, её своим друзьям в любой соц. сети.

После чего скачивание начнётся автоматически!

Кнопки:

Презентация на тему: Иерархия памяти CUDA


Скачать эту презентацию

Презентация на тему: Иерархия памяти CUDA


Скачать эту презентацию



№ слайда 1 Лекторы: Лекторы: Боресков А.В. (ВМиК МГУ) Харламов А.А. (NVidia)
Описание слайда:

Лекторы: Лекторы: Боресков А.В. (ВМиК МГУ) Харламов А.А. (NVidia)

№ слайда 2
Описание слайда:

№ слайда 3 Самая быстрая – shared (on-chip) Самая быстрая – shared (on-chip) Самая медленна
Описание слайда:

Самая быстрая – shared (on-chip) Самая быстрая – shared (on-chip) Самая медленная – глобальная (DRAM) Для ряда случаев можно использовать кэшируемую константную и текстурную память Доступ к памяти в CUDA идет отдельно для каждой половины warp’а (half-warp)

№ слайда 4 Основа оптимизации – оптимизация работы с памятью Основа оптимизации – оптимизац
Описание слайда:

Основа оптимизации – оптимизация работы с памятью Основа оптимизации – оптимизация работы с памятью Максимальное использование shared-памяти Использование специальных паттернов доступа к памяти, гарантирующих эффективный доступ Паттерны работают независимо в пределах каждого half-warp’а

№ слайда 5 Произведение двух квадратных матриц A и B размера N*N, N кратно 16 Произведение
Описание слайда:

Произведение двух квадратных матриц A и B размера N*N, N кратно 16 Произведение двух квадратных матриц A и B размера N*N, N кратно 16 Матрицы расположены в глобальной памяти По одной нити на каждый элемент произведения 2D блок – 16*16 2D grid

№ слайда 6
Описание слайда:

№ слайда 7
Описание слайда:

№ слайда 8
Описание слайда:

№ слайда 9 Обращения идут через 32/64/128-битовые слова Обращения идут через 32/64/128-бито
Описание слайда:

Обращения идут через 32/64/128-битовые слова Обращения идут через 32/64/128-битовые слова При обращении к t[i] sizeof( t [0] ) равен 4/8/16 байтам t [i] выровнен по sizeof ( t [0] ) Вся выделяемая память всегда выровнена по 256 байт

№ слайда 10 struct vec3 struct vec3 { float x, y, z; };
Описание слайда:

struct vec3 struct vec3 { float x, y, z; };

№ слайда 11 Compute Caps. – доступная версия CUDA Compute Caps. – доступная версия CUDA Разн
Описание слайда:

Compute Caps. – доступная версия CUDA Compute Caps. – доступная версия CUDA Разные возможности HW Пример: В 1.1 добавлены атомарные операции в global memory В 1.2 добавлены атомарные операции в shared memory В 1.3 добавлены вычисления в double Узнать доступный Compute Caps. можно через cudaGetDeviceProperties() См. CUDAHelloWorld Сегодня Compute Caps: Влияет на правила работы с глобальной памятью

№ слайда 12
Описание слайда:

№ слайда 13
Описание слайда:

№ слайда 14 Нити обращаются к Нити обращаются к 32-битовым словам, давая 64-байтовый блок 64
Описание слайда:

Нити обращаются к Нити обращаются к 32-битовым словам, давая 64-байтовый блок 64-битовым словам, давая 128-байтовый блок Все 16 слов лежат в пределах блока k-ая нить half-warp’а обращается к k-му слову блока

№ слайда 15
Описание слайда:

№ слайда 16
Описание слайда:

№ слайда 17 Нити обращаются к Нити обращаются к 8-битовым словам, дающим один 32-байтовы сег
Описание слайда:

Нити обращаются к Нити обращаются к 8-битовым словам, дающим один 32-байтовы сегмент 16-битовым словам, дающим один 64-байтовый сегмент 32-битовым словам, дающим один 128-байтовый сегмент Получающийся сегмент выровнен по своему размеру

№ слайда 18 Если хотя бы одно условие не выполнено Если хотя бы одно условие не выполнено 1.
Описание слайда:

Если хотя бы одно условие не выполнено Если хотя бы одно условие не выполнено 1.0/1.1 – 16 отдельных транзаций 1.2/1.3 – объединяет их в блоки (2,3,…) и для каждого блока проводится отдельная транзакция Для 1.2/1.3 порядок в котором нити обращаются к словам внутри блока не имеет значения (в отличии от 1.0/1.1)

№ слайда 19 Можно добиться заметного увеличения скорости работы с памятью Можно добиться зам
Описание слайда:

Можно добиться заметного увеличения скорости работы с памятью Можно добиться заметного увеличения скорости работы с памятью Лучше использовать не массив структур, а набор массивов отдельных компонент – это позволяет использовать coalescing

№ слайда 20
Описание слайда:

№ слайда 21 Традиционные методы ориентированы на последовательное вычисление элементов и нам
Описание слайда:

Традиционные методы ориентированы на последовательное вычисление элементов и нам не подходят Традиционные методы ориентированы на последовательное вычисление элементов и нам не подходят Есть еще итеративные методы

№ слайда 22
Описание слайда:

№ слайда 23
Описание слайда:

№ слайда 24
Описание слайда:

№ слайда 25 CUDA.CS.MSU.SU CUDA.CS.MSU.SU Место для вопросов и дискуссий Место для материало
Описание слайда:

CUDA.CS.MSU.SU CUDA.CS.MSU.SU Место для вопросов и дискуссий Место для материалов нашего курса Место для ваших статей! Если вы нашли какой-то интересный подход! Или исследовали производительность разных подходов и знаете, какой из них самый быстрый! Или знаете способы сделать работу с CUDA проще! www.steps3d.narod.ru www.nvidia.ru

№ слайда 26
Описание слайда:

Скачать эту презентацию


Презентации по предмету
Презентации из категории
Лучшее на fresher.ru