4 ЯДРА - что дальше?..
5634
38
мы тут с другом выпили немного и решили поднять вроде бы глобальную тему - какой уровень производительности нам предложат в ближайшие пару лет? Запихают 8 ядер под одну крышку, а потом будут ещё пару лет будут оптимизировать все привычные нам приложения под такой камень? Скучно... Я работаю на 10-м канале оператором-монтажером, у меня на рабочем месте стоит машина моей мечты - MAC PRO - 2 четырехъядерника (Intel Xeon 3 Ггц), 8 Гб DDR-II и так далее в этом духе... Недавно начал осваивать монтаж видео "высокой четкости"(крайне ресурсоёмкая задача) и понял : ХОЧУ ЧТОБЫ БЫСТРЕЕ БЫЛО!!! Знакомый чел зарабатывает в 3D Max`е, до недавнего времени работал на "целероне" (1.8), ставил на "просчет" проект и ложился спать, хе-хе... посмотрел готовое - не понравился результат - поменял пару настроек и опять часов десять напряженной работы ЦП .... В подробности железа он как-то не вдавался, знал что в случае чего за него все сделают. И говорит мне перед новым годом: есть 90 штук, поехали за новой "тачкой".. MAC ему не посоветовал - много вопросов возникнет, взяли P5 ASUS P5K3-Deluxe + QX6700 + 8 Gb DDR-III памяти... (как обмывали!!! ммм....) ну так вот... Поработал он пару месяцев на этой "супер-машине" и сказанул недавно: ставлю эффект на просчет и сплю не 10 часов как раньше, а 3 часа - один фиг всё это долгие ожидания.......... вот так.. Хотя поменял систему просто координально........ Я впрочем нахожусь в похожей ситуации... Ну это бледный пример из нашей с вами жизни... Кто-нидь готов спрогнозировать, упадут-ли на нас в скором времени плоды прогрессивнейшего решения инженеров Intel или AMD и мы разом перескочим на совершенно новый уровень производительности.. Или в компьютере моего ребенка будет стоять Core 3 Duo? Ваши предположения, господа....
Camerman
- будет увеличение кол. ядер уже есть 8 и 16 проекты почти готовые.
- больше кеш на процессоре
- оптоволокно на шине, частота шины будет выше.
Riff
А толку? Где оптимизированный софт даже под существующие несколько ядерные процы?
Все будет упираться в оптимизацию софта под существующие процы.
ganymed
Не только софта, операционки тоже.
Всеми любимая XP толком не умеет даже с двумя ядрами работать, всеми не любимая Виста нормально понимает 4 ядра.
ganymed
Где оптимизированный софт даже под существующие несколько ядерные процы?
Когда HD киношку будете на компе смотреть, обратите внимание на графики загрузки ядер. Про всякие фотошопы и прочие видеоредакторы не говорю даже, как и про игрушки, архиваторы там...
mx
да хоть сто ядер... на сегодняшний день не вижу в этом никакого смысла.. четырёхъ и двухъядерники, работающие на одинаковой частоте на практике показывают примерно одинаковую производительность, а в теории разница должна составлять 100%... кажется менять нужно само ядро а не их количество.. хотя говорить легко конечно, да и сами инженеры наверняка это всё понимают, но сделать увы ничего пока не могут...
Camerman
Как говорил известный герой, мы уже мертвы:)\

Какая вам разница сколько яичек? Все равно не удовлетворят потребности ведь.
Camerman
четырёхъ и двухъядерники, работающие на одинаковой частоте на практике показывают примерно одинаковую производительность, а в теории разница должна составлять 100%...
Вы про 3D Max говорили. Вот статья на THG. Картинка про 3D Max:
Core 2 Quad Q6600@3.3GHz, 0:34
Core 2 Duo E6750@3.3GHz, 1:02
Действительно, в теории 100%, а на практике жалких 83%, разницы практически никакой.
Или они там меряют неправильно?..
Camerman
и понял : ХОЧУ ЧТОБЫ БЫСТРЕЕ БЫЛО!!!
Такие проблемы будут всегда у профессионалов и геймеров. Однако такие мелочи не помешали голливуду снять Титаник, который, если мне ни с кем не изменяет память, месяца три рендерился.

Ещё раньше машинное время вообще на вес золота было. И ничего... Даже как-то умудрились человека в космос закинуть.

Шли правильным путём - оптимизировали рабочий процесс и не грели зря воздух.

взяли P5 ASUS P5K3-Deluxe QX6700 8 Gb DDR-III памяти...
У меня вопрос на засыпку - систему какую точно туда ставили и сколько она видела памяти реально?

. Кто-нидь готов спрогнозировать, упадут-ли на нас в скором времени плоды прогрессивнейшего решения инженеров Intel или AMD и мы разом перескочим на совершенно новый уровень производительности..
В обозримом будущем не видно. Пока что производительность наращивалась эволюционно. Да и даже если физики откроют что-то сногсшибательное - ещё лет десять понадобится для внедрения в массы.

Недавно начал осваивать монтаж видео "высокой четкости"(крайне ресурсоёмкая задача) и понял
Такие вещи, насколько я знаю, делаются (пробуются) либо на коротком кусочке или на низком разрешении, но быстро. А когда необходимый оптимум достигнут - уже на оригинале.

А у нас 10-ка решила на ХДТВ переходить? :спок:
Camerman
Или в компьютере моего ребенка будет стоять Core 3 Duo? Ваши предположения, господа....
видел как рендерид автокад на 2-х 4-х ядерных ксеонах .... быстрее чем на простой машине:)

Процесс рендеринга польностью распаралеливается, поэтому чем больше камней тем быстрее.
Camerman
ИМХО, в обозримом будущем особых революционных прорывов в области hardware не предвидится. Так что придется смотреть в сторону оптимизации софта, ОС, отличных от "любимой" Висты, а также способов распараллеливания задач с помощью ЛВС. Для рендеринга особо ресурсоемких задач собираются целые локальные сети, объединяются в кластеры, под конкретную задачу собирается конкретная ОС с минимумом функционала. Хотя прорыв через барьер 4ГГц в процессорах домашнего пользования, все же, наверное, возможен, хотя и не даст сам по себе такого револючионного эффекта, как это бывало раньше.
crow
Хотя прорыв через барьер 4ГГц в процессорах домашнего пользования, все же, наверное, возможен, хотя и не даст сам по себе такого револючионного эффекта, как это бывало раньше.
на самом деле сейчас настольные процессоры проходят путь эволюции старых суперкомпьютеров, просто в ооочень маленьком корпусе, размером не с полдома:)
kazik
Про эволюцию ничего не скажу, но знакомые Максовцы рендерят все на кластерах - ничего, особо не жалуются:улыб:
Camerman
Во первых, для начала необходимо пересмотреть принятую систему математических вычислений в современных процессорах - это означает что из двоичной(сигнал на плюс, нет сигнала) системы, процессоры должны эволюционировать хотябы в троичные(сигнал на плюс, сигнал на минус, нет сигнала) первобытные про-аналоговые вычислительные системы, которые логически понимают не только "Нет(0)" и "Да(1)", но ещё и "Нейтрал(2)", который я уже не вспомню как называется.

Во вторых, многоядерность процессоров тоже очень сильно влияет на производительность - даже у Terminator-102 многоядерная архитектура, у него там кажется 16-и процессорная матрица с центральным блоком паралельного управления памятью. Тоесть короче говоря, это почти тоже самое что и современный AMD.

В третьих, когда наконец учёные изобретут сверхпроводники, в первую очередь для базовых элементов процессора, таких как транзисторы и диоды, тот тогда автоматически решаться проблемы связанные с потреблением энергии и разогревом сверх-высокочастотных процессоров - это значит что частота подскочит до предельной физической величины.

Это всё фантастика, можете смеятся до коликов в животе, но это года нибудь да сбудется...
BT_Volodya
Троичные компьютеры конечно очень упрощают выполнение многих алгоритмов, т.е. многие алгоритмы в троичной сс выполняются проще и быстрее. Но на данный момент это невозможно.
Как мне кажется будущее за квантовыми компьютерами.
Camerman
Есть наработки у нвидии и амд по использованию видеокарт для рассчетов, в рассчетах с плавающей запятой видеокарта нвидиа (не помню где статью читал) обгоняла корку в десятки раз. В будущем скорее всего в процессоре будет несколько разных ядер, выполняющих свои задачи, а частота врядли сильно возрастет.
Ну и затык должны решать производители по, расспаралеливать задачи.
oeNigger
Ну и затык должны решать производители по, расспаралеливать задачи.
Это, кмк, одно из основных направлений по увеличению производительности.
Но. Весь фикус как раз в распараллеливании задачи.
А этому еще учиться нужно. Менять подход в программировании.
Это не быстрый процесс.
Camerman
Ответ дает сама природа:
У нас в голове (как то заглядывал) работатют нейроны с тактовой частотой сотни герц, но "ядер" очень много и "голова" работает быстро!!!
Значит, будет большой эффект, когда научатся во много раз больше делеть ядер - мильоны и правильно распараллеливать задачи, т.е. так, чтобы производительность росла прямо пропорционально числу ядер!!!:улыб:
ganymed
Весь фикус как раз в распараллеливании задачи.
А этому еще учиться нужно. Менять подход в программировании.
Это не быстрый процесс.
Как програмист-ассемблерист, хоть и не очень матёрый, скажу вот что:
Распоралелить задачу не составит особого труда, просто в архитектуре должен присутствовать механизм последовательного мульти-процессорного-прерывания, тоесть должна быть центральная часть процессора которая сопоставляет такты каждого ядра и равномерно, с частотой около в несколько тысяч прерываний в секунду, передавать управление на каждое sub-IRQ 0(1). Иными словами, в на ассэмблере это будет равносильно комманде "INT 08h", но в многопроцессорной архитектуре это должно выглядеть примерно так: "INT 08h,00Fh" - в програмном коде это означает что текущий процессор передал управление программой на 16-ое ядро, а в стэк соответственно должно быть заложено как минимум ещё один параметр, в котором указывается родитель процесса, короче номер текущего ядра.

Ну короче это всё долго объяснять, это надо понимать как минимум на уровне машинного языка...
Tt002
Троичные компьютеры конечно очень упрощают выполнение многих алгоритмов, т.е. многие алгоритмы в троичной сс выполняются проще и быстрее. Но на данный момент это невозможно.
Как мне кажется будущее за квантовыми компьютерами.
Я не помню как называется логический код(2), но в совокупности все три кода должны позволять компьютеру думать почти как человеческому мозгу.
На самом деле такой процессор уже возможно создать, вот только необходимо совершенно по новому посмотреть на архитектуру - в общем начать с нуля, но используя накопленный опыт...
fuks
Ответ дает сама природа:
У нас в голове (как то заглядывал) работатют нейроны с тактовой частотой сотни герц, но "ядер" очень много и "голова" работает быстро!!!
Вот например в мозге архитектура работает по принципу аналогового преобразования импульсов.
Если взять для сравнения цифровой процессор и аналоговый мозг, то процессор будет без особого труда вычислять заумные математические задачи, а моз будет без особого труда вычислять трёхмерные и графические задачи.
Если совместить процессор с мозгом, тоесть построить много ядерный цифро-аналоговый процессор, то получится супер компьютер который станет умней любого живого существа во всей вселенной - это будет великий вселенский "Аракул" у каждого человека в кармане.
Не забывайте про технологии сверхпроводников, в них заложена фантастическая производительность каждого из многих тысяч ядер - представьте себе предельно-допустимую частоту процессора...
BT_Volodya
Кстати современные многоядерные процессоры уже выдуманы и вы ими давно пользуетесь:миг:. Посмотрите просто на количество блоков обработки современных игровых видеокарт - вы увидите блок управления и пару сотен специализированых процессоров "маленьких". Как не странно, но к такому же подходу идут производители CPU. По крайней мере в своих заявлениях о текущих разработках. Кое кто называет это архитектурой "Larrabee". :спок:
ээээ.... и вроде бы даже имеет прототип на 80 ядрах.... - но вот последнее непроверено.
Head
Почему не проверено? Они, вроде, не скрываются:
http://techresearch.intel.com/articles/Tera-Scale/1449.htm
mx
Скажем так - не держал в руках и пока не видел даже в обзорах системы где это чудо используется. Ты же сам понимаешь что ТераФлопсами мерятся это одно, а собрать хотя бы экспериментальный суперкомпьютер - это совсем другое.
mx
Ну вы теперь понимаете что мы все становимся свидетелями бурного развития компьютерной эволюции?
Представьте, вы сидите в баре на орбитальной станции "Венера" и рассказываете десятку любознательных мальчишек и девчёнок про то, как в начале 21 века на планете Земля, наука стремительно развивала технический прогресс.
...
Когда ещё человечество плохо представляло что такое невесомость(послышелось озорное хихиканье), учёные всего мира думали над созданием компьютеоного разума. Теперь(старец протянул руку одному заслушавшемуся мальчишке), когда вы дружите с дроидами и играете с ними в прядки, вы даже не задумываетесь над тем, что они из металла и по своей природе являются лучшим достижением человеческой мысли(детишки в восторге разбежались по своим делам).
...
Ну почти как в фантастическом фильме - красота...
BT_Volodya
Я имею ввиду логику программы. Тут одним ассемблером не обойтись.
Рекомендую для познания по этому вопросу почитать спец. ресурсы.
ganymed
Вуаля, спецресурс в студию!!!
Кстати, на Русском языке уважаемые форум-зрители...
:tease:

Assembler это самый низкий уровень програмирования - это язык "МАШИН".
Так что с логикой у "МАШИН" на Pascal/Delphi/C++/Basic/и т.д и т.п. всеравно всё сведётся к Assembler - ибо все они интерфейс между человеком и "МАШИНОЙ".
А логика программ вообще-то, если что и на всякий случай, как минимум 8 битная, это кстати в "REAL MODE" давно минувших дней, сейчас эта цифра как минимум в двое больше - а всеравно архитектура двоичная, а вот если бы её на троичную переделать, то и Assembler станет другим, от сюда и логика программ...

Ну представьте, в мозге по нейронам или там по чему ещё, гоняют импульсы в двух направления, по одной и той же магистрали данных - тоесть это указывает на троичную архитектуру мозга.
0) - Отсутствие сигнала на нейроне(шина) в тактовый периуд.
1) - Сигнал из мозга(процессор) в спинной мозг(чипсет мамки).
2) - Сигнал в мозг(процессор) из спинного мозга(чипсет мамки).
VinD
В смысле???
Я кажется немного упростил схему описания, я бы конечно мог подумать чуток и разложить элемент обработки сигнала в виде полупроводниковой схемы - господа, я ведь как понятней выразился...
:agree:
BT_Volodya
Вуаля, спецресурс в студию!!!
Кстати, на Русском языке уважаемые форум-зрители...
:tease:
Да пожалуйста!www.parallel.ru Сайт не коммерческий. Поэтому в открытую его "рекламирую".:улыб:
На счет ассемблера действительно смешно. В плане сравнения с другими языками.:улыб:
Я вот думаю.
Может посоветовал бы кто мелкософтам писать будущую винду на ассемблере?
А что? Может быстрее бы стала работать и меньше стала?
:ха-ха!:
ganymed
Тему говориш, а то привыкли её на C++ и Delphi накатывать - блин, столько лишних движений :(...
На сколько мне известно, на ассемблере пишут только ядро, а всё остальное на всяком отстойном чайниковом быстроплётстве...

А ещё, в троичной системе, вынужденны будут изобрести новый язык для чайников - аля "Borland С+++" или "Borland Delphi Neyron 2020" :ухмылка:...
BT_Volodya
На сколько мне известно, на ассемблере пишут только ядро, а всё остальное на всяком отстойном чайниковом быстроплётстве...
Я больше скажу, ядро тоже пишут на всяком отстойном чайниковом быстроплетстве. И даже всякие юниксы и линуксы ядро пишут на отстойном чайниковом быстроплетстве. Нигде понимающих людей не осталось. Как страшно жить... :cray-1:
mx
Хе-хе, аж поджилки трясуться от мысли что на AM2 2x4800 ОСка начнёт блажить тормозами :ха-ха!:...

Я вот как-то экспериментировал с копированием файлов на Assembler, так вот, на Пне133 скорость копирования под MS-DOS в REAL MODE, на Pascal самая элементарная прога копировала примерно на 15% медленее чем её аналог на Assembler!!!
Я только не понимаю одного - чего там в паскале наворотили, что с буфером по 64kb разница в скорости получается такой непропорциональной :eek:???
Надо заставить програмистов в первую очередь учить Assembler, а Delphi и прочую быстроплётную лажу использовать только для компоновки сложных приложений.
А так всё ровно наоборот - вот мы и покупаем супер машины только ради того что бы плоские картинки в игрушках могли крутиться по 25fps.
Большинство програмистов боится начинать учить Assembler, только потому что их мозги уже привыкли к удобным строчкам из Delphi - по себе знаю, сам года три боялся Assembler и считал его дремучим лесом...
BT_Volodya
Ты..эта...почитай дядьку Кнута. Он дельные мысли излагает.
:спок:
ganymed
Читал в 10 лет - как видеш, дело говорю...
:friends:
BT_Volodya
Читал в 10 лет
А я думал, Дальтон был крут, когда в 12 лет Ньютона читал в оригинале. Оказывается, удивительное ближе. :ха-ха!:
mx
Да брось, я в Японии на SONY админю...
:secret:
BT_Volodya
Читал в 10 лет - как видеш, дело говорю...
:friends:
ого