Пляшковий шийка процесор. Пляшкова шийка: Еволюція проблеми «вузьких місць» у ПК. Крім спостереження за виробництвом для виявлення вузьких місць використовуються такі інструменти.

FX проти Core i7 Шукаємо вузькі місця із конфігурацією Eyefinity

Ми бачили, як кожні три-чотири роки продуктивність процесорів подвоювалася. І все ж найвибагливіші ігрові движки, які ми тестували, також старі, як процесори Core 2 Duo. Звичайно, вузькі місця з боку CPU повинні були піти в минуле, чи не так? Як виявилось, швидкість GPU зростає ще швидше, ніж продуктивність центрального процесора. Таким чином, суперечка про купівлю швидшого CPU або нарощування графічної потужності продовжується.

Але завжди настає момент, коли сперечатися безглуздо. Для нас він настав, коли ігри почали плавно працювати на найбільшому моніторі з рідною роздільною здатністю 2560×1600. І якщо швидший компонент зможе забезпечити в середньому 200, а не 120 кадрів на секунду, різниця все одно не буде помітна.

У відповідь на відсутність більше високих дозволівдля швидких графічних адаптерів AMD представила технологію Eyefinity, а Nvidia - Surround. Обидві технології дозволяють грати більш ніж на одному моніторі, і для GPU high-end класу робота на роздільній здатності 5760×1080 стала об'єктивною реальністю. По суті, три дисплеї з роздільною здатністю 1920×1080 обійдуться дешевше і вражають вас більше, ніж один екран на 2560×1600. Звідси виникла причина додатково витратитися більш потужні графічні рішення.

Але чи справді необхідний потужний процесор, щоб грати без "гальм" на роздільній здатності 5760x1080? Питання виявилося цікавим.

Нещодавно AMD представила нову архітектуру, і ми купили боксовий FX-8350. у статті "Огляд та тест AMD FX-8350: чи виправить Piledriver недоліки Bulldozer?"у новому процесорі нам сподобалося багато чого.

З економічної точки зору, в цьому порівнянні Intel доведеться довести, що він не тільки швидше за чіп AMD в іграх, але і виправдовує високу різницю в ціні.


Обидві материнські плати відносяться до сімейства Asus Sabertooth, проте за модель з роз'ємом LGA 1155 компанія вимагає більш високу ціну, що ще ускладнює становище Intel щодо бюджету. Ми спеціально вибрали ці платформи, щоб порівняння продуктивності було максимально справедливим, при цьому вартість не приймалася.

FX проти Core i7 Конфігурація та тести

Поки що ми чекали появи в тестлабі FX-8350, провели тести боксового Враховуючи, що процесор AMD без проблем сягає 4,4 ГГц, ми розпочали тестування чіпа Intel на такій самій частоті. Згодом з'ясувалося, що ми недооцінили наші зразки, оскільки обидва CPU досягли 4,5 ГГц на вибраному рівні напруги.

Нам не хотілося відкладати публікацію через повторне тестування на вищих частотах, тому було вирішено залишити результати тестів на частоті 4,4 ГГц.

Тестова конфігурація
CPU Intel Intel Core i7-3770K (Ivy Bridge): 3,5 ГГц, 8 Мбайт загального кешу L3, LGA 1155 розгін до 4,4 ГГц на 1,25 В
Материнська плата Intel Asus Sabertooth Z77, BIOS 1504 (08/03/2012)
Кулер CPU Intel Thermalright MUX-120 w/Zalman ZM-STG1 Paste
CPU AMD AMD FX-8350 (Vishera): 4,0 ГГц, 8 Мбайт загального кешу L3, Socket AM3+ розгін до 4,4 ГГц на 1,35 В
Материнська плата AMD Asus Sabertooth 990FX, BIOS 1604 (10/24/2012)
Кулер CPU AMD Sunbeamtech Core-Contact Freezer w/Zalman ZM-STG1 Paste
Мережа Вбудований контролер Gigabit LAN
Пам'ять G.Skill F3-17600CL9Q-16GBXLD (16 Гбайт) DDR3-2200 CAS 9-11-9-36 1,65 В
Відеокарта 2 x MSI R7970-2PMD3GD5/OC: GPU, 1010 МГц GDDR5-5500
Накопичувач Mushkin Chronos Deluxe DX 240 Гбайт, SATA 6 Гбіт/с SSD
живлення Seasonic X760 SS-760KM: ATX12V v2.3, EPS12V, 80 PLUS Gold
ПЗ та драйвера
Операційна система Microsoft Windows 8 Professional RTM x64
Графічний драйвер AMD Catalyst 12.10

Завдяки високій ефективності та швидкій установці, вже кілька років ми використовуємо кулери Thermalright MUX-120 та Sunbeamtech Core Contact Freezer. Однак монтажні скоби, які йдуть у комплекті з цими моделями, не взаємозамінні.


Модулі пам'яті G.Skill F3-17600CL9Q-16GBXLD мають характеристику DDR3-2200 CAS 9 і використовують профілі Intel XMP для напівавтоматичної конфігурації. Sabertooth 990FX використовує значення XMP через Asus DOCP.

Блок живлення Seasonic X760 забезпечує високу ефективність, необхідну оцінки відмінностей платформ.

StarCraft II не підтримує технологію AMD Eyefinity, тому ми вирішили використовувати старіші ігри: Aliens vs. Predator та Metro 2033.

Конфігурація тестів (3D-ігри)
Aliens vs. Predator з використанням AvP Tool v.1.03, SSAO/тесселяція/тіні вкл.
Тестова конфігурація 1: якість текстур High, без AA, 4x AF
Тестова конфігурація 2: якість текстур Very High, 4x AA, 16x AF
Battlefield 3 Режим кампанії "Going Hunting" 90-секунд Fraps
Тестове налаштування 1: якість Medium (без AA, 4x AF)
Тестове налаштування 2: якість Ultra (4x AA, 16x AF)
F1 2012 Версія Steam, вбудований бенчмарк
Тестове налаштування 1: якість High, без AA
Тестове налаштування 2: якість Ultra, 8x AA
Elder Scrolls V: Skyrim Оновлення 1.7, Celedon Aethirborn рівень 6, 25-секунд Fraps
Тестове налаштування 1: DX11, рівень деталізації High без AA, 8x AF, FXAA вкл.
Тестове налаштування 2: DX11, рівень деталізації Ultra, 8x AA, 16x AF, FXAA вкл.
Metro 2033 Повна версія, вбудований бенчмарк, сцена "Frontline"
Тестове налаштування 1: DX11, High, AAA, 4x AF, без PhysX, без DoF
Тестове налаштування 2: DX11, Very High, 4x AA, 16x AF, без PhysX, DoF вкл.

FX проти Core i7 Результати тестів

Battlefield 3, F1 2012 та Skyrim

Але спершу давайте поглянемо на енергоспоживання та ефективність.

Енергоспоживання не розігнаного FX-8350в порівнянні з чіпом Intel не так і жахливо, хоча фактично воно вище. Однак на графіку ми не бачимо картини загалом. Ми не бачили, щоб чіп працював на частоті 4 ГГц при постійному навантаженні на базових налаштуваннях. Натомість, при обробці восьми потоків в Prime95 він зменшив множник і напругу, щоб залишитися в межах заявленого теплового пакета. Тротлінг штучно стримує енергоспоживання CPU. Установка фіксованого множника та напруги помітно підвищує цей показник у процесора Vishera під час розгону.

У той же час, не всі ігри можуть задіяти можливість процесора FX-8350обробляти вісім потоків даних одночасно, отже вони ніколи не зможуть довести чіп до спрацьовування механізму троттлінга.

Як уже зазначалося, під час ігор на нерозігнаному FX-8350тротлінг не активується, оскільки більшість ігор не можуть повністю завантажити процесор. Насправді ігри вигідно використовують технологію Turbo Core, що підвищує частоту процесора до 4,2 ГГц. Найгірше чіп AMD показав себе на діаграмі середньої продуктивності, де Intel помітно виходить уперед.

Для діаграми ефективності ми використовуємо середню споживану потужність і середню продуктивність всіх чотирьох змін як середній показник. У цій діаграмі продуктивність на ват процесора AMD FX-8350становить приблизно дві третини від результату Intel.

FX проти Core i7 Чи зможе AMD FX наздогнати Radeon HD 7970?

Коли ми говоримо про непоганий і доступний залізо, любимо використовувати такі фрази як "80% продуктивності за 60% вартості". Ці показники завжди дуже чесні, оскільки у нас вже стало звичкою вимірювати продуктивність, споживану потужність та ефективність. Однак у них враховується вартість лише одного компонента, а компоненти, як правило, поодинці працювати не можуть.

Додавши компоненти, використані в сьогоднішньому огляді, ціна системи на базі Intelзросла до $1900, а платформи AMD до $1724, це без урахування корпусів, периферії та операційної системи. Якщо розглядати готові рішення, то варто додати ще приблизно $80 за корпус, в результаті отримуємо $1984 у Intel і $1804 у AMD. Економія на готовій конфігурації із процесором AMD становить $180, у відсотковому співвідношенні від загальної вартості системи це небагато. Інакше кажучи, інші компоненти персонального комп'ютера high-end класу применшують значення більш вигідної цінипроцесора.

У результаті у нас залишається два абсолютно упереджені способи порівняння ціни та продуктивності. Ми відкрито зізналися, тому сподіваємось, що нас не засуджуватимуть за представлені результати.

Для AMD вигідніше, якщо ми включимо лише вартість системної плати та CPU та збільшимо вигоду. Вийде така діаграма:

Як третя альтернатива можна розглядати материнську плату і процесор як апгрейд, припускаючи, що корпус, блок живлення, пам'ять і накопичувачі залишилися від минулої системи. Найімовірніше, пара відеокарт Radeon HD 7970у старій конфігурації не використовувалася, тому найрозумніше брати до уваги процесори, системні плати, та графічні адаптери. Таким чином, до списку ми додаємо дві відеокарти із GPU Tahiti за $800.

AMD FX-8350виглядає вигідніше ніж Intel (особливо в іграх на обраних нами налаштуваннях) лише в одному випадку: коли решта системи "безкоштовна". Оскільки інші компоненти не можуть бути безкоштовними, FX-8350теж зможе стати вигідним придбанням для ігор.

Intel та відеокарти AMD

Результати наших тестів вже давно показали, що графічні чіпи ATI більш процесорозалежні, ніж чіпи Nvidia. В результаті, при тестуванні GPU high-end класу, ми оснащуємо наші тестові стендипроцесорами Intel, оминаючи недоліки платформи, які можуть перешкодити ізоляції графічної продуктивності та несприятливо позначитися на результатах.

Ми сподівалися, що вихід AMD Piledriverзмінить ситуацію, але навіть кількох вражаючих удосконалень виявилося замало, щоб команда розробників CPU порівнялася з ефективністю команди розробників графічних рішень у AMD. Що ж, зачекаємо на вихід чіпів AMDна базі архітектури Steamroller, яка обіцяє бути на 15% продуктивнішою за Piledriver.

При складанні ігрового ПК найдорожчою частиною є відеокарта, і хочеться, щоб вона на повну відпрацьовувала свої гроші. Тоді постає питання: який треба вибрати процесор для цієї відеокарти, щоб він не обмежував її в іграх? У цій проблемі вам допоможе наш спеціально підготовлений матеріал.

Вступ

Так виходить, що головним у комп'ютері є процесор і він командує рештою. Саме він і дає розпорядження вашій відеокарті про малювання тих чи інших об'єктів, а також розраховує фізику об'єктів (навіть деякі операції вважає процесор). Якщо відеокарта не працює на повну міць, а процесор вже не може швидше, то виникає ефект «пляшкового шийки» (bottleneck), коли продуктивність системи обмежується найслабшим її компонентом.

Насправді завжди є операції, коли відеокарта взагалі не напружується, а відсотків оре на повну, але ми тут говоримо про ігри, так що будемо міркувати в цій парадигмі.

Як розподіляється навантаження між процесорами та відеокартою?

Слід зазначити, що зі зміною налаштувань у грі змінюється співвідношення завантаженості процесора та відеокарти.

При збільшенні роздільної здатності та налаштувань графіки навантаження на відеокарту зростає швидше, ніж на процесор. Це означає, що якщо на більш малих дозволах процесор не є пляшковим шийкою, то і на більших теж не буде.

Зі зменшенням дозволу та настоянок графіки все навпаки: навантаження на процесор при прорахунку одного кадру майже не змінюється, а відеокарта стає значно легшою. У такій ситуації процесор з більшою ймовірністю стане пляшковим шийкою.

Які ознаки bottleneck?

Для проведення тесту потрібна програма. Вам потрібно дивитись на графік «Завантаження ДП».

Також потрібно знати навантаження на процесор. Це можна зробити в моніторингу системи у диспетчері завдань, там є графік навантаження процесора.

Отже, які ж ознаки того, що процесор не розкриває відеокарту?

  • Навантаження ДП не близьке до 100%, а навантаження ЦП весь час біля цієї позначки
  • Графік навантаження ГП сильно скаче (може бути погано оптимізована гра)
  • При зміні налаштувань графіки FPS не змінюється

Саме за цими ознаками ви можете дізнатися, чи має місце bottleneck у вашому випадку?

Як розібратися з вибором процесора?

Для цього раджу вам дивитися тести процесорів у потрібній вам грі. Є сайти, які спеціально займаються цим ( , ).

Приклад тесту у грі Tom Clancy's The Division:

Зазвичай під час тестування процесорів у різних іграх вказуються настоянки графіки та роздільна здатність. Підбираються такі умови, щоб пляшковим шийкою був процесор. У такому разі можна дізнатися на яку кількість кадрів у даній роздільній здатності здатний той чи інший процесор. Таким чином, можна і порівнювати процесори між собою.

Ігри бувають різні (капітан очевидність) і вимоги до процесора вони можуть бути різними. Так, в одній грі все буде добре і процесор буде без проблем справлятися зі сценами, а в іншій відеокарта прохолоджуватиметься в той час, як процесор насилу виконуватиме свої завдання.

Найсильніше на це впливають:

  • складність фізики у грі
  • складна геометрія простору (багато великих будівель з безліччю деталей)
  • штучний інтелект

Наші поради

  • Радимо вам при виборі орієнтуватися саме на такі тести з потрібними налаштуваннями графіки і потрібним вам FPS (які потягне ваша карта).
  • Бажано дивитися по найвибагливіших ігор, якщо хочете бути впевнені в тому, що майбутні новинки добре працюватимуть.
  • Можете також брати процесор із запасом. Зараз ігри добре працюють навіть на чіпах 4-річної давності (), а це означає, що хороший процесорзараз буде ще дуже довго тішити вас в іграх.
  • Якщо FPS у грі нормальний, а навантаження на відеокарту низьке, навантажте її. Підвищіть налаштування графіки так, щоб відеокарта працювала на повну.
  • При використанні DirectX 12 навантаження на процесор повинне трохи знизитися, що зменшить вимоги до нього.

Технічний прогрес в усіх галузях рухається поступово, це очевидно. У цій статті ми розглянемо, які ж вузли коли покращували свої властивості повільніше інших, стаючи слабким ланкою. Отже, сьогоднішня тема – еволюція слабких ланок – як вони виникали, впливали і як усувалися.

Процесор

З ранніх персональних комп'ютерівосновна частина обчислень лягала на CPU. Пов'язано це було з тим, що чіпи були не дуже дешеві, тому більшість периферії використовувала під свої потреби процесорний час. Та й периферії самої тоді було небагато. Невдовзі з розширенням сфери застосування ПК, цю парадигму було переглянуто. Настав час розквіту різноманітних карт розширення.



За часів «двушок» та «троячок» (це не Pentium'и II та III, як може вирішити молодь, а процесори i286 та i386) завдання ставилися перед системами не дуже складні, в основному офісні програми та розрахунки. Карти розширення вже частиною розвантажували процесор, наприклад, MPEG-декодер, який займався дешифруванням файлів, стислих у MPEG, робив це без участі CPU. Трохи згодом почали розроблятися стандарти, які менше навантажували процесор під час обміну даними. Прикладом була шина PCI(що з'явилася, починаючи з i486), робота з якої меншою мірою навантажувала процесор. Також до таких прикладів можна віднести PIO та (U)DMA.


Процесори нарощували потужність непоганими темпами, з'явився множник, оскільки швидкість системної шини була обмежена, і кеш – для маскування запитів у оперативну пам'ять, що працює на меншій частоті. Процесор все ще залишався слабкою ланкою, і від нього майже повністю залежала швидкість роботи.



Тим часом компанія Intelпісля випуску непоганого процесора Pentiumвипускає нове покоління – Pentium MMX. Вона хотіла змінити стан справ та перенести розрахунки на процесор. У цьому непогано допоміг набір інструкцій MMX – MultiMedia eXtensions, який призначався для прискорення роботи з обробкою звуку та відео. З його допомогою почала нормально програватися музика формату mp3, і можна було досягти прийнятного відтворення MPEG4 засобами CPU.

Перші пробки у шині

Системи з урахуванням процесора Pentium MMX вже більше упиралися в ПСП (пропускну здатність пам'яті). Шина в 66 МГц для нового процесора була пляшковим шийкою, незважаючи на перехід на новий тип пам'яті SDRAM, який покращив продуктивність у перерахунку на мегагерц. Тому дуже популярним став розгін по шині, коли виставляли шину 83 МГц (або 75 МГц) і отримували досить помітний приріст. Найчастіше навіть менша підсумкова частота процесора компенсувалася більшою частотою шини. Вперше більшу швидкість вдавалося досягти при меншій частоті. Ще одним пляшковим шийкою став обсяг оперативної пам'яті. Для SIMM-пам'яті це був максимум у 64 Мб, але частіше стояло 32 Мб або 16. Це сильно ускладнювало використання програм, оскільки кожна Нова версія Windows, як відомо, любить "їсти багато смачної рами" (c). Недалеко ходять чутки щодо змови виробників пам'яті з корпорацією Microsoft.



Intel тим часом почала розвивати дорогу і тому не дуже популярну платформу Socket8, а AMD продовжила розвивати Socket7. На жаль, остання використовувала у своїх продуктах повільний FPU (Floating Point Unit- модуль операцій з дробовими числами), створений щойно купленої тоді компанією Nexgen, що тягло у себе відставання від конкурента у мультимедійних завданнях – насамперед, іграх. Переведення на шину 100 МГц дав процесорам необхідну ПСП, а повношвидкісний кеш другого рівня в 256 Кб на процесорі AMD K6-3 настільки покращив ситуацію, що швидкість системи характеризувалася тільки частотою процесора, а не шини. Хоча, частково, це було пов'язано з повільним FPU. Офісні програми, що залежать від потужності ALU, завдяки швидкій підсистемі пам'яті працювали швидше рішеньконкурента.

Чіпсети

Intel відмовилася від дорогих Pentium Pro, у яких кристал кешу L2 був інтегрований у процесор, і випустила Pentium II. Цей CPU мав ядро, дуже схоже на ядро ​​Pentium MMX. Головними відмінностями стали кеш L2, який розміщувався на картриджі процесора і працював на половині частоти ядра, нова шина- AGTL. За допомогою нових чіпсетів (зокрема i440BX) вдалося підвищити частоту шини до 100 МГц і, відповідно, ПСП. За ефективністю (відношення швидкості випадкового читання до теоретичної) ці чіпсети стали одними з найкращих, і досі Intel не змогла побити цей показник. Чіпсети серії i440BX мали одну слабку ланку - південний мост, функціональність якого вже не задовольняла вимогам того часу. Використовувався старий південний міст від серії i430, що застосовується в системах на базі Pentium I. Саме ця обставина, як і зв'язок між чіпсетами по шині PCI, спонукала виробників до випуску гібридів, що містять північний міст i440BX та південний міст VIA (686A/B).



Тим часом, Intel демонструє програвання DVD-фільму без допоміжних карт. Але Pentium II не отримав великого визнання через високу вартість. Очевидною стала потреба у випуску дешевих аналогів. Перша спроба – Intel Celeron без кешу L2 – стала невдалою: за швидкістю Covington'и дуже програвали конкурентам і ціни своєї не виправдовували. Тоді Intel робить другу спробу, що виявилася вдалою, - ядро ​​Mendocino, що полюбилося оверклокерам, що має вдвічі менший об'єм кешу (128 Кб проти 256 Кб у Pentium II), але працює на вдвічі більшій частоті (на частоті процесора, не наполовину II). За рахунок цього швидкість у більшості завдань була не нижчою, а менша ціна приваблювала покупців.

Перше 3D і знову шина

Відразу після виходу Pentium MMX розпочалася популяризація 3D-технологій. Спочатку це були професійні програми для розробки моделей та графіки, але справжню еру відкрили 3D-ігри, а точніше, 3D-прискорювачі Voodoo, створені компанією 3dfx. Ці прискорювачі стали першими масовими картами для створення 3D сцен, які розвантажували процесор при рендерингу. Саме з того часу й пішов відлік еволюції тривимірних ігор. Досить швидко розрахунок сцени силами центрального процесора став програвати виконаному засобами відеоприскорювача як у швидкості, і якості.



З появою нової потужної підсистеми – графічної, що стала за обсягом даних суперників, що розраховуються центральним процесором, вилізла нова пляшка - шина PCI. Зокрема, карти Voodoo 3 і старші отримували збільшення швидкості вже просто при розгоні шини PCI до 37.5 або 41.5 МГц. Очевидно, що виникла потреба у забезпеченні відеокарт досить швидкою шиною. Такою шиною (а точніше портом) стала AGP – Accelerated Graphics Port. Як випливає із назви, це спеціалізована графічна шина, і за специфікацією вона могла мати лише один слот. Перша версія AGP підтримувала швидкості AGP 1x та 2x, що відповідало одноразовій та дворазовій швидкості PCI 32/66, тобто 266 та 533 Мб/с. Повільна версія була додана для сумісності, а саме з нею виникали досить багато часу проблеми. Причому проблеми були з усіма чіпсетами, крім випущених Intel. З чуток, ці проблеми були пов'язані з наявністю ліцензії тільки у цієї компанії та її перешкоджання розвитку конкуруючої платформи Socket7.



AGP покращив стан справ, і графічний порт перестав бути вузьким місцем. Відеокарти перейшли на нього дуже швидко, але платформа Socket7 майже до самого кінця страждала від проблем із сумісністю. Лише останні чіпсети та драйвери змогли цю ситуацію покращити, але й тоді виникали нюанси.

І гвинти туди!

Настав час Coppermine, виросли частоти, підросла швидкодія, нові відеокарти покращили продуктивність та примножили конвеєри та пам'ять. Комп'ютер уже став мультимедійним центром – на ньому програвали музику та дивилися фільми. Слабкі за характеристиками інтегровані звукові карти поступаються позицією SBLive!, які стали народним вибором. Але щось перешкоджало повній ідилії. Що це було?



Цим чинником стали жорсткі диски, Зростання обсягу яких сповільнилося і зупинилося на позначці близько 40 Гб. Для колекціонерів фільмів (тоді MPEG4) це викликало труднощі. Невдовзі проблему було вирішено, і досить швидко – диски дорослі обсягом до 80 Гб і від і перестали хвилювати більшість користувачів.


AMD випускає дуже хорошу платформу – Socket A та процесор архітектури K7, названий маркетологами Athlon (технічна назва Argon), а також бюджетний Duron. У Атлонів сильними сторонамибули шина і потужний FPU, що робило його чудовим процесором для серйозних розрахунків та ігор, залишаючи його конкуренту – Pentium 4 – роль офісних машин, де, втім, потужні системиніколи не були потрібні. Ранні Duron мали дуже невеликий обсяг кешу та частоту шини, що ускладнювало його конкуренцію з Intel Celeron (Tualatin). Але через кращу масштабованість (через більш швидкісну шину) вони краще відгукувалися на зростання частоти, і тому старші моделі вже спокійно обганяли рішення Intel.

Між двома мостами


У цей період з'явилося одразу два вузькі місця. Перше – це шина між мостами. Традиційно з цією метою використовувалася PCI. Варто згадати, що PCI у варіанті, що використовується в настільних комп'ютерах, має теоретичну пропускну здатність в 133 Мб/с. Насправді швидкість залежить від чіпсету та застосування і варіюється від 90 до 120 Мб/с. На додаток до цього пропускна спроможність розділяється між усіма пристроями, які до неї підключені. Якщо у нас є два канали IDE з теоретичною пропускною здатністюв 100 Мб/с (ATA-100), підключених до шини з теоретичною пропускною здатністю 133 Мб/с, то проблема очевидна. LPC, PS/2, SMBus, AC97 мають низькі вимоги до пропускної спроможності. Зате Ethernet, ATA 100/133, PCI, USB 1.1/2.0 вже оперують швидкостями, які можна порівняти з міжмостовим інтерфейсом. Довгий час проблеми не було. USB не використовувався, Ethernet був потрібний нечасто і в основному на швидкості 100 Мбіт/c (12.5 Мб/c), а жорсткі диски не могли навіть близько підійти до максимуму швидкості інтерфейсу. Але час минав, і ситуація змінювалася. Вирішили зробити спеціальну межхабовую (між мостами) шину.


VIA, SiS та Intel випустили свої варіанти шин. Відрізнялися вони насамперед пропускними здібностями. Починалися вони з PCI 32/66 - 233 Мб/с, але було зроблено головне - шина PCI була виділена тільки під власні пристрої, і через неї не потрібно було передавати дані іншим шинам. Це покращило швидкість роботи з периферією (щодо архітектури мостів).


Зростала і пропускна спроможність графічного порту. Впроваджувалась можливість роботи з режимами Fast Writes, що дозволяли писати дані у відеопам'ять безпосередньо, минаючи системну пам'ять, і Side Band Addressing, використовував передачі додаткову частину шини в 8 біт, зазвичай призначену передачі технічних даних. Приріст від використання FW досягався тільки при високому навантаженні на процесор, в інших випадках це давало мізерний приріст. Так, відмінність режиму 8x від 4x перебувала у межах похибки.

Процесорозалежність

Ще одним пляшковим шийкою, актуальним і до цього дня, стала процесорозалежність. Це явище виникло внаслідок стрімкого розвитку відеокарт та означало недостатню потужністьзв'язки «процесор – чіпсет – пам'ять» стосовно відеокарти. Адже кількість кадрів у грі визначається не лише відеокартою, а й цією зв'язкою, оскільки саме остання надає карті інструкції та дані, які потрібно обробити. Якщо зв'язка не встигає, то відеопідсистема впирається в стелю, що визначається переважно нею. Така стеля залежатиме від потужності карти і настройок, що використовуються, але є і карти, що мають таку стелю при будь-яких налаштуваннях у певній грі або при однакових налаштуваннях, але в більшості сучасних їй ігор практично при будь-яких процесорах. Наприклад, карта GeForce 3 сильно впиралася у продуктивність процесорів Puntium III та Pentium 4 на ядрі Willamete. Трохи старшої моделі GeForce 4 Ti вже не вистачало Athlon'ів 2100+-2400+, і приріст при покращенні характеристик зв'язки був дуже помітним.



Як покращувалися характеристики? Спочатку AMD, користуючись результатами розробленої ефективної архітектури, просто підвищувала частоту процесорів і покращувала технологічний процес, А виробники чіпсетів – пропускну спроможність пам'яті. Intel продовжувала слідувати політиці нарощування тактових частот, благо архітектура Netburst саме до цього й мала. Процесори Intelна ядрах Willamete, Northwood із шиною 400QPB (quad pumped bus) програвали конкуруючим рішенням із шиною 266 МГц. Після впровадження 533QPB процесори зрівнялися у продуктивності. Але потім Intel замість 667-МГц шини, впровадженої в серверних рішеннях, вирішила процесори для настільних комп'ютерівперевести відразу на шину 800 МГц, щоб зробити запас потужності для конкуренції з ядром Barton та новим топом Athlon XP 3200+. Процесори Intel сильно упиралися у частоту шини, і навіть 533QPB не вистачало для забезпечення потоком даних у достатньому обсязі. Саме тому вийшов 3.0-ГГц CPU на шині 800 МГц обганяв у всіх, за винятком, можливо, малого числа, додатках процесор 3.06 МГц на шині 533 МГц.


Також було введено підтримку нових частотних режимів для пам'яті, і з'явився двоканальний режим. Зроблено це було для вирівнювання пропускної спроможності шини процесора та пам'яті. Двоканальний режим DDR саме відповідав QDR на тій же частоті.


Для AMD двоканальний режим був формальністю і давав ледь помітний приріст. Нове ядро ​​Prescott не принесло однозначного приросту в швидкості і подекуди програвало старому Northwood. Основною його метою був переведення на новий техпроцес і можливість подальшого зростання частот. Тепловиділення сильно зросло у зв'язку зі струмами витоку, що поставило хрест на випуску моделі, що працює на частоті 4.0 ГГц.

Через стелю до нової пам'яті

Покоління Radeon 9700/9800 та GeForce 5 для процесорів того часу проблем із процесорозалежністю не викликало. Зате покоління GeForce 6 поставило більшість систем на коліна, оскільки приріст продуктивності був дуже помітним, а тому й процесорозалежність вища. Топові процесори на ядрах Barton (Athlon XP 2500+ – 3200+) та Northwood/Prescott (3.0-3.4 МГц 800FSB) уперлися в нову межу – частотну межу пам'яті та шину. Особливо від цього страждала AMD - шина 400 МГц була недостатньою для реалізації потужності FPU. У Pentium 4 ситуація була краща і за мінімальних таймінгів вони демонстрували хороші результати. Але JEDEC не хотіла сертифікувати більш високочастотні модулі пам'яті, що володіють меншими затримками. Тому варіанти було два: або складний чотириканальний режим, або перехід на DDR2. Сталося останнє і була представлена ​​платформа LGA775 (Socket T). Шина залишалася тією ж, але частоти пам'яті були обмежені 400 МГц, лише починалися з неї.



AMD вирішила проблему краще з погляду масштабованості. Покоління K8, що носило технічну назву Hammer, окрім збільшення числа інструкцій за такт (почасти через коротший конвеєр), мав дві нововведення з заділом на майбутнє. Ними стали вбудований контролер пам'яті (а точніше північний міст з більшою частиною його функціоналу) і швидка універсальна шина HyperTransport, яка служила для зв'язку процесора з чіпсетом або процесорів між собою в багатопроцесорній системі. Вбудований контролер пам'яті дозволив уникнути слабкої ланки – зв'язки «чіпсет – процесор». FSB як така перестала, була лише шина пам'яті і шина HT.


Це дозволило Athlon'ам 64 легко обігнати існуючі рішення Intel на архітектурі Netburst і показати ущербність ідеології довгого конвеєра. Tejas мав багато проблем і не побачив світ. Ці процесори легко реалізовували потенціал карт GeForce 6, втім, як старші Pentium 4.


Але тут з'явилося нововведення, що зробило процесори надовго слабкою ланкою. Ім'я йому – multi-GPU. Вирішено було відродити ідеї 3dfx SLI і втілити в NVIDIA SLI. ATI відповіла симетрично та випустила CrossFire. Це були технології обробки сцен силами двох карт. Подвоєна теоретична потужність відеопідсистеми та розрахунки, пов'язані з розбиттям кадру на частини за рахунок процесора, призвели до перекосу системи. Старші Athlon 64 навантажували таку зв'язку лише у великих дозволах. Вихід GeForce 7 та ATI Radeon X1000 ще більше збільшив цей дисбаланс.


Принагідно було розроблено нову шину PCI Express. Ця двоспрямована послідовна шинапризначена для периферії і має дуже високу швидкість. Вона прийшла на заміну AGP та PCI, хоч і не витіснила її повністю. Через універсальність, швидкість і дешевизну реалізації вона швидко витіснила AGP, хоча і не принесла на той час ніякого приросту в швидкості. Різниці між ними не було. Але з погляду уніфікації це був дуже добрий крок. Зараз вже випускаються плати з підтримкою PCI-E 2.0, що має вдвічі більшу пропускну здатність (500 Мб/с в кожну сторону проти колишніх 250 Мб/с на одну лінію). Приросту нинішніх відеокарт це також не дало. Різниця між різними режимами PCI-E можлива лише у разі нестачі відеопам'яті, що означає дисбаланс для самої карти. Такою картою є GeForce 8800GTS 320 Mб – вона дуже чуйно реагує на зміну режиму PCI-E. Але брати незбалансовану карту, тільки щоб оцінити приріст від PCI-E 2.0, – рішення5 не найрозумніше. Інша річ, карти з підтримкою Turbocache та Hypermemory – технологій використання оперативної пам'яті як відеопам'ять. Тут приріст у плані пропускної спроможності пам'яті буде приблизно дворазовим, що позитивно позначиться на продуктивності.


Чи достатньо відеокарті пам'яті можна подивитися у будь-якому огляді пристроїв з різними обсягами VRAM. Там, де спостерігатиметься різке падіння кадрів за секунду, є брак VideoRAM. Але буває, що різниця стає помітна тільки при неграбних режимах - роздільній здатності 2560х1600 і AA/AF на максимум. Тоді різниця 4 і 8 кадрів на секунду хоч і буде дворазовою, але очевидно, що обидва режими неможливі в реальних умовах, тому й до уваги їх брати не варто.

Нова відповідь відеочіпам

Вихід нової архітектури Core 2 (технічна назва Conroe) покращив ситуацію з процесорозалежністю та рішення на GeForce 7 SLI завантажував без особливих проблем. Але подоспелі Quad SLI і GeForce 8 взяли реванш, відновивши перекіс. Так продовжується і досі. Ситуація лише погіршилася з виходом 3-way SLI і підготовкою до виходу Quad SLI на GeForce 8800 і Crossfire X 3-way і 4-way. Вихід Wolfdale трохи підвищив тактові частоти, але й розгону цього процесора мало, щоб нормально завантажити такі відеосистеми. 64-бітові ігри – велика рідкість, а приріст у цьому режимі спостерігається у поодиноких випадках. Ігри, які отримують приріст від чотирьох ядер, можна перерахувати на пальцях однієї руки інваліда. Як завжди, всіх витягує Microsoft, завантажуючи своєю новою ОС і пам'ять, і процесор за здорово живеш. Підспудно оголошується, що технології 3-way SLI та Crossfire X працюватимуть виключно під Vista. Враховуючи апетити, можливо, геймери будуть змушені брати чотириядерні процесори. Пов'язано це з більш рівномірним, ніж у Windoes XP, завантаженням ядер. Якщо вона повинна від'їдати неабияку частку процесорного часу, то нехай хоч від'їдає ядра, які грою все одно не використовуються. Однак сумніваюся, що нова операційна системазадовольниться даними на відкуп ядрами.



Платформа Intel зживає себе. Чотири ядра вже сильно страждають від нестачі пропускної спроможності пам'яті та затримок, пов'язаних із перемиканнями шини. Шина розділяється, і на перехоплення ядром шини під свій контроль потрібен час. При двох ядрах це терпимо, але на чотирьох вплив тимчасових втрат стає помітнішим. Також системна шина давно не встигає за ПСП. Вплив даного фактора був ослаблений покращенням ефективності асинхронного режиму, що Intel непогано реалізувала. Робочі станції ще більшою мірою страждають від цього з вини невдалого чіпсету, контролер пам'яті якого забезпечує лише до 33% від теоретичного ПСП. Приклад тому – програш платформи Intel Skulltrail у більшості ігрових програм (3Dmark06 CPU test – не ігровий додаток:)) навіть при використанні однакових відеокарт. Тому Intel оголосила про нове покоління Nehalem, яке займеться використанням інфраструктури, дуже схожої з розробками AMD - вбудований контролер пам'яті і шина для периферії QPI (технічна назва CSI). Це покращить масштабованість платформи та дасть позитивні результатиу двопроцесорних та багатоядерних конфігураціях.


AMD зараз має кілька пляшкових шийок. Перше пов'язане з механізмом кешування – через нього існує певна межа ПСП, що залежить від частоти процесора, така, що вище цього значення не вдається перестрибнути, навіть використовуючи більш високочастотні режими. Наприклад, при середньому процесорі різниця у роботі з пам'яттю між DDR2 667 та 800 МГц може бути близько 1-3%, для реального завдання – взагалі мізерною. Тому краще підбирати оптимальну частоту і знижувати таймінги - на них контролер дуже добре відгукується. Тому впроваджувати DDR3 сенсу немає ніякого – великі таймінги лише зашкодять, приросту взагалі може бути. Також проблема AMD зараз – повільна (попри SSE128) обробка SIMD інструкцій. Саме з цієї причини Core 2 дуже обганяє K8/K10. ALU, який завжди був сильним місцем Intel, став ще сильнішим, і в деяких випадках може бути в рази швидше свого побратима в Phenom'і. Тобто основне лихо процесорів AMD- слабка "математика".


Взагалі, слабкі ланки дуже залежить від конкретного завдання. Було розглянуто лише «епохальні». Так, у деяких завданнях швидкість може упертися в об'єм ОЗП або швидкість дискової підсистеми. Тоді додається більше пам'яті (об'єм визначається за допомогою лічильників продуктивності) і ставляться RAID-масиви. Швидкість ігор може бути підвищена відключенням вбудованої звукової картита покупкою нормальної дискретної – Creative Audigy 2 або X-Fi, які менше вантажать процесор, обробляючи ефекти своїм чіпом. Це більшою мірою відноситься до звукових карт AC'97 і меншою до HD-Audio (Intel Azalia), оскільки в останній була виправлена ​​проблема високого завантаження процесора.


Пам'ятай, що система завжди повинна братися під конкретні завдання. Найчастіше, якщо відеокарту можна підібрати збалансовану (і то вибір за ціновими категоріями буде залежати від цін, що сильно різняться по різних місцях), то, скажімо, з дисковою підсистемою така можливість не завжди є. RAID 5 потрібен дуже небагатьом, але для сервера це незамінна річ. Те саме стосується двопроцесорної або багатоядерної конфігурації, марної в офісних додатках, але це «must have» для дизайнера, що працює в 3Ds Max.

У останньої версії Windows з'явилася функція визначення рейтингу потужності для різних компонентівПК. Це дає загальне уявлення про продуктивність та вузькі місця системи. Але тут ви не знайдете жодних подробиць про швидкісні параметри комплектуючих. Крім того, ця діагностика не дозволяє провести стрес-тест обладнання, що буває корисним для розуміння пікових навантажень під час запуску сучасних ігор. Сторонні бенчмарки сімейства 3DMark також дають лише оцінну характеристику в умовних балах. При цьому не секрет, що багато виробників комп'ютерного заліза оптимізують роботу відеокарт та інших компонентів таким чином, щоб отримати максимальну кількість балів саме при проходженні 3DMark. Ця програма навіть дозволяє порівняти продуктивність вашого обладнання з аналогічним із її бази, але конкретних значень ви не отримаєте.

Тому тестування ПК слід проводити окремо, враховуючи не лише оцінку продуктивності бенчмарком, а й реальні технічні характеристики, зафіксовані внаслідок перевірки обладнання. Ми підібрали вам комплект утиліт (як платних, так і безкоштовних), що дозволяють отримати конкретні результати і виявити слабкі ланки.

Швидкість обробки зображення та 3D

Тестування відеокарт - одне з найважливіших етапів щодо оцінки потужності ПК. Виробники сучасних відеоадаптерів оснащують їх спеціальним ПЗ та драйверами, що дозволяють використовувати GPU не тільки для обробки зображення, але й інших обчислень, наприклад, при кодуванні відео. Тому єдиний надійний спосібдізнатися, наскільки ефективно обробляється комп'ютерна графіка- вдатися до спеціальної програми, яка вимірює продуктивність пристрою.

Перевірка стабільності відеокарти

Програма: FurMark 1.9.1 Сайт: www.ozone3d.net Програма FurMark - це один із найшвидших і найпростіших засобів для перевірки роботи відеоадаптера. Утиліта тестує продуктивність відеокарти, беручи за основу технологію OpenGL. Алгоритм пропонованої візуалізації задіює багатопрохідний рендеринг, кожен шар якого заснований на GLSL (шейдерна мова OpenGL).

Щоб навантажити процесор відеокарти, даний бенчмарк візуалізує абстрактну тривимірну картинку з тором, покритим хутром. Необхідність обробити велику кількість волосся призводить до максимально можливої ​​завантаженості пристрою. FurMark перевіряє стабільність роботи відеокарти, а також показує зміни температурних показників пристрою зі збільшенням навантаження.

У налаштуваннях FurMark можна вказати дозвіл, при якому буде проводитися тестування «заліза», а після завершення програми надасть короткий звіт про конфігурацію ПК з підсумковою оцінкою в умовних балах. Це значення зручно використовувати за загального порівняння продуктивності кількох відеокарт. Також можна перевірити «чергові» дозволи 1080p та 720p.

Віртуальна стереопрогулянка

Програма: Unigine Heaven DX11 Benchmark Сайт: www.unigine.com Один з найвірніших способів перевірити, на що здатний новий комп'ютер, - Запускати на ньому ігри. Сучасні ігри повністю задіяють апаратні ресурси - відеокарту, пам'ять та процесор. Однак далеко не всі мають можливість і бажання витрачати час на подібні розваги. Натомість можна використовувати програму Unigine Heaven DX11 Benchmark. Цей тест заснований на ігровому движку Unigine (на ньому побудовані такі ігри, як Oil Rush, Dilogus: Winds of War, Syndicates of Arkon та інші), що підтримує графічні API (DirectX 9, 10, 11 і OpenGL). Після його запуску програма створить демонстраційну візуалізацію, промальовуючи віртуальне оточення як реального часу. Користувач побачить короткометражний ролик, який включатиме віртуальну прогулянку фентезійним світом. Ці сцени створюються силами відеокарти. Крім тривимірних об'єктів двигун імітує складне освітлення, моделюючи глобальну системуз багаторазовими відображеннями променів світла від елементів сцени.

Тестування комп'ютера можна проводити в режимі стерео, причому в налаштуваннях бенчмарку дозволяється вибрати стандарт об'ємного відео: анагліфне 3D, роздільне виведення кадрів для правого і лівого очей і т.д.

Незважаючи на те, що в назві програми згадана одинадцята версія DirectX, це не означає, що Unigine Heaven призначений тільки для сучасних відеокарт. У налаштуваннях цього тесту можна вибрати одну з більш ранніх версій DirectX, а також встановити прийнятний рівень деталізації картинки та вказати якість промальовування шейдерів.

Виявлення слабкої ланки

У ситуації, коли користувача охоплює бажання збільшити продуктивність свого комп'ютера, може виникнути питання: який компонент найслабший? Що зробить комп'ютер швидше - заміна відеокарти, процесора або встановлення величезного обсягу оперативної пам'яті? Щоб дати відповідь на це питання, необхідно протестувати окремі компоненти та визначити у поточній конфігурації «слабку ланку». Знайти його допоможе унікальна у своєму роді мультитестуюча утиліта.

Імітатор навантажень

Програма: PassMark PerformanceTest Сайт: www.passmark.com PassMark PerformanceTest аналізує практично будь-який пристрій, що є у конфігурації ПК, - від материнської платита пам'яті до оптичних приводів.

Особливістю PassMark PerformanceTest є те, що програма використовує багато різних завдань, скрупульозно вимірюючи продуктивність комп'ютера в різних ситуаціях. У певний момент може навіть здатися, що хтось узяв керування системою у свої руки – довільним чином відкриваються вікна, виконується прокручування їхнього вмісту, виводяться на екран зображення. Все це результат роботи бенчмарку, який імітує виконання найбільш типових завдань, зазвичай затребуваних у Windows. При цьому перевіряється швидкість компресії даних, фіксується час, необхідний для шифрування інформації, застосовуються фільтри до фотографій, встановлюється швидкість візуалізації векторної графіки, програються короткі демонстраційні тривимірні ролики і т.д.

Наприкінці тестування PassMark PerformanceTest видає сумарну оцінку в балах і пропонує порівняти цей результат із даними, отриманими на ПК із різною конфігурацією. По кожному з перевірених параметрів програма створює діаграму, на якій дуже добре видно слабкі комплектуючі комп'ютера.

Перевірка дискової системи

Пропускна здатність дискової системи може бути найвужчим місцем у продуктивності ПК. Тому знати реальні характеристики цих комплектуючих надзвичайно важливо. Тестування вінчестера дозволить не тільки визначити його швидкість читання та запису, але й покаже, наскільки надійно працює пристрій. Для перевірки накопичувача ми рекомендуємо спробувати дві маленькі утиліти.

Іспити для HDD

Програми: CrystalDiskInfo та CrystalDiskMark Сайт: http://crystalmark.info/software/index-e.html Ці програми створені одним розробником і відмінно доповнюють одна одну. Обидві вони безкоштовні і можуть працювати без встановлення на комп'ютер безпосередньо з флешки.

У більшості жорстких дисків реалізовано технологію самодіагностики SMART, що дозволяє спрогнозувати можливі несправності роботи накопичувача. За допомогою програми CrystalDiskInfo можна оцінити реальний стан вашого HDD у плані надійності: вона зчитує дані SMART, визначає кількість проблемних секторів, кількість помилок позиціонування головки зчитування, час, необхідний на розкручування диска, а також поточну температуру пристрою. Якщо останній показник занадто високий, то ресурс роботи носія повністю буде дуже коротким. Програма також показує версію прошивки та надає дані про тривалість використання жорсткого диска.

CrystalDiskMark - це невелика програма, що вимірює швидкості запису та читання. Даний інструмент для перевірки дисків відрізняється від аналогічних утиліт тим, що дає можливість використовувати різні умови запису та читання даних - наприклад, вимірювати показання для блоків різного розміру. Також утиліта дозволяє задати кількість тестів, що проводяться, і обсяг даних, що використовуються для них.

Спідометр для веб-серфінгу

Реальна швидкість мережного з'єднаннязазвичай відрізняється від тієї, що вказана в його налаштуваннях або заявлена ​​провайдером, причому, як правило, меншу сторону. На швидкість передачі даних може впливати маса факторів - рівень електромагнітних перешкод у приміщенні, кількість користувачів, що одночасно працюють у мережі, якість кабелю тощо.

Оцінка швидкості мережі

Програма: SpeedTest Сайт: www.raccoonworks.com Якщо ви хочете дізнатися реальну швидкість передачі даних у вашій локальної мережіВам допоможе програма SpeedTest. Вона дозволяє визначити, чи дотримується провайдер заявлених параметрів. Утиліта вимірює швидкість передачі між двома робочими машинами користувачів, і навіть між віддаленим серверомта особистим комп'ютером.

Програма складається з двох частин – серверної та клієнтської. Щоб виміряти швидкість передачі інформації від одного комп'ютера до іншого, першому користувачеві необхідно запустити серверну частину та вказати довільний файл (бажано великого розміру), який використовуватиметься для тесту. Другий учасник випробувань повинен запустити клієнтську складову та вказати параметри сервера – адресу та порт. Обидві програми встановлюють з'єднання та починають обмінюватися даними. У процесі передачі файлу SpeedTest будує графічну залежність та збирає статистичні дані про час, який знадобився для копіювання даних через мережу. Якщо тестувати кілька віддалених ПК, програма буде щоразу додавати нові криві на побудований графік.

Крім того, SpeedTest перевірить швидкість роботи Інтернету: в режимі Web Page програма тестує з'єднання з будь-яким сайтом. Цей параметр можна оцінити, зайшовши на спеціалізований ресурс http://internet.yandex.ru.

Збої в роботі оперативної пам'яті можуть виявлятися не відразу, а за певних навантажень. Щоб бути впевненим, що підібрані модулі не підведуть вас у будь-якій ситуації, краще їх як слід протестувати та вибрати найшвидші.

Мем-олімпіада

Програма: MaxxMEM2 - PreView Сайт: www.maxxpi.net Ця програма призначена для перевірки швидкості роботи пам'яті. За дуже короткий період вона виконує кілька тестів: заміряє час копіювання даних у ОЗП, визначає швидкість читання та запису даних, показує параметр латентності пам'яті. У налаштуваннях утиліти можна встановити пріоритет тесту, а результат порівняти з актуальними значеннями, отриманими іншими користувачами. З меню програми можна швидко перейти до онлайнової статистики на офіційному сайті MaxxMEM2 і дізнатися, яка пам'ять є найпродуктивнішою.

Для звуку швидкість не головне

При тестуванні більшості пристроїв, як правило, важлива швидкість обробки даних. А от щодо звукової карти це не є головним показником. Для користувача набагато важливіше перевірити характеристики аналогового та цифрового аудіотракту – дізнатися, наскільки спотворюється звук при відтворенні та запису, виміряти рівень шуму тощо.

Порівняння з еталоном

Програма: RightMark Audio Analyzer 6.2.3 Сайт: http://audio.rightmark.org Автори цієї утиліти пропонують кілька способів перевірки аудіопоказників. Перший варіант – самодіагностика звукової карти. Пристрій відтворює через аудіотракт тестовий сигнал відразу його записує. Хвильова форма отриманого сигналу в ідеалі має відповідати оригіналу. Відхилення свідчать про спотворення звуку встановленої у вашому ПК аудіокартою.

Другий і третій способи тестування більш точні – за допомогою еталонного генератора звукового сигналуабо за допомогою додаткової звукової карти. В обох випадках якість джерела сигналу приймається за зразок, хоча певну похибку додаткові пристроїтакож вносять. При використанні другої аудіокарти фактор спотворення сигналу на виході повинен бути мінімальним - пристрій повинен мати кращі характеристики, ніж у звукової карти, що тестується. Наприкінці перевірки можна також визначити такі параметри, як частотні характеристики аудіоплати, її рівень шуму, гармонійні спотворення, що видаються, і т.д.

Крім основних функцій, доступних у безкоштовній редакції, у більш потужної версіїпрограми RightMark Audio Analyzer 6.2.3 PRO також є підтримка професійного ASIO-інтерфейсу, вчетверо більш детальний дозвіл спектру та можливість використання прямої передачі даних Kernel Streaming.

Важливо, щоб ніхто не заважав

Під час проведення будь-якого тесту продуктивності слід пам'ятати, що у його кінцеві результати впливає безліч чинників, особливо робота фонових служб і додатків. Тому для максимально точної оцінки ПК рекомендується заздалегідь відключати антивірусний сканер та закривати все запущені програми, до поштового клієнта. І, звичайно, щоб уникнути похибок у вимірах, слід припинити будь-яку роботу, доки програма не завершить тестування обладнання.

Теорію обмежень систем було сформульовано у 80-ті роки ХХ ст. та стосувалася управління виробничими підприємствами. Коротко її суть зводиться до того, що в кожній виробничої системидіють обмеження, які стримують ефективність. Якщо усунути ключове обмеження, система запрацює значно ефективніше, ніж намагатися впливати на всю систему відразу. Тому процес удосконалення виробництва слід розпочинати з усунення вузьких місць.

Зараз термін bottleneck може використовуватися для будь-якої галузі — у сфері послуг, розробці. програмного забезпечення, логістика, повсякденному житті.

Що таке bottleneck

Визначення bottleneck звучить як місце у виробничій системі, в якому виникає перевантаження, тому що потік матеріалів надходить занадто швидко, але не може бути так само швидко перероблений. Часто це станція з меншою потужністю ніж попередній вузол. Термін походить з аналогії з вузьким шийкою пляшки, яка уповільнює шлях рідини назовні.


Bottleneck - вузьке місце у виробничому процесі

На виробництві ефект пляшкового шийки викликає простої та виробничі витрати, знижує загальну ефективність та збільшує терміни відвантаження продукції замовникам.

Існує два типи вузьких місць:

  1. Короткострокові вузькі місця- Викликані тимчасовими проблемами. Гарний приклад- Лікарняний або відпустка ключових співробітників. Ніхто в команді не може повноцінно замінити їх і робота зупиняється. На виробництві це може бути поломка одного із групи верстатів, коли його навантаження розподіляється між робочим обладнанням.
  2. Довгострокові вузькі місця- Діють постійно. Наприклад, постійна затримка місячних звітів у компанії через те, що одна людина має обробити величезну кількість інформації, яка надійде до неї лавиною наприкінці місяця.

Як визначити bottleneck у виробничому процесі

Існує кілька способів пошуку bottleneck на виробництві різного рівня складності, із застосуванням спеціальних інструментів та без. Почнемо з більш простих способів, заснованих на спостереженні.

Черги та затори

Процес на виробничій лінії, який збирає перед собою найбільшу чергу з одиниць незавершеного виробництва, зазвичай є пляшковим шийкою. Такий спосіб пошуку bottleneck підходить для штучного конвеєрного виробництва, наприклад, на лінії розливу. Добре видно, де лінії скупчуються пляшки, і який механізм має недостатню потужність, часто ламається або обслуговується недосвідченим оператором. Якщо на лінії кілька місць скупчення, то ситуація складніша, і потрібно використовувати додаткові методи, щоб знайти найкритичніше вузьке місце.

Пропускна здатність

Пропускна спроможність усієї виробничої лінії прямо залежить від виходу обладнання bottleneck. Ця характеристика допоможе знайти головну пляшечку шийки процесу виробництва. Збільшення випуску одиниці устаткування, яка є вузьким місцем, істотно вплине загальний випуск лінії. Перевіривши по черзі все обладнання, можна виявити bottleneck - тобто той крок, збільшення потужності якого найбільше вплине на вихід всього процесу.

Повна потужність

Більшість виробничих ліній відстежують відсоток завантаження кожної одиниці устаткування. Верстати та станції мають фіксовану потужність і в процесі виробництва використовуються на певний відсоток максимальної потужності. Станція, яка задіює максимум потужності – bottleneck. Таке обладнання стримує процент використання потужності іншого обладнання. Якщо ви збільшите потужність bottleneck, то потужність усієї лінії зросте.

Очікування

Процес виробництва також враховує час простоїв та очікування. Коли на лінії є пляшкова шийка, то обладнання, що йде одразу ним, довго простоює. Bottleneck затримує виробництво і наступний верстат не отримує достатньо матеріалу, щоб працювати безперервно. Коли ви виявите верстат з довгим часом очікування, то шукайте на попередньому кроці пляшку.

Крім спостереження за виробництвом для виявлення вузьких місць використовуються такі інструменти:

Value Stream Mapping – карта створення потоків цінності

Як тільки ви з'ясуйте причину чи причини вузьких місць, потрібно визначити діїдля розширення пляшкового шийки та нарощування виробництва. Можливо, вам знадобиться перемістити співробітників у проблемну зону або найняти додатковий персонал та закупити обладнання.

Пляшкова шийка може виникнути там, де оператори переналаштовують обладнання для виробництва іншого продукту. У такому разі треба подумати, як скоротити простої. Наприклад, змінити графік виробництва, щоб зменшити кількість переналагодження або зменшити їх вплив.

Як зменшити вплив вузьких місць

Bottleneck менеджмент пропонує виробничим компаніям використовувати три підходи, щоб зменшити вплив вузьких місць.

Перший підхід

Збільшення потужності існуючих вузьких місць.

Існує кілька способів збільшити потужність вузьких місць:

  1. Додайте ресурси до обмежуючого процесу. Необов'язково наймати нових працівників. Крос-функціональне навчання персоналу може зменшити вплив вузьких місць із незначними витратами. У такому разі робітники обслуговуватимуть одразу кілька станцій та полегшуватимуть проходження вузьких місць.
  2. Забезпечте безперебійне подання деталей на вузьке місце. Завжди слідкуйте за незавершеним виробництвом перед вузьким місцем, керуйте подачею ресурсів на станцію bottleneck, враховуйте овертайми, протягом яких обладнання також завжди повинно мати деталі для обробки.
  3. Переконайтеся, що вузьке місце працює лише з якісними деталями. Не витрачайте потужність та час роботи вузького місця на опрацювання шлюбу. Розташовуйте точки контролю якості перед станціями bottleneck. Це підвищить пропускну спроможність процесу.
  4. Перевірте графіки виробництва. Якщо у процесі випускається кілька різних продуктів, які вимагають різного часу роботи bottleneck, скоригуйте графік виробництва так, щоб загальний попит на bottleneck зменшився
  5. Збільште час роботи обладнання, що обмежує. Нехай bottleneck працює довше, ніж інше обладнання. Призначте оператора, який обслуговуватиме процес під час обідніх перерв, планових простоїв і, якщо потрібно, понаднормово. Хоча цей метод не зменшить час циклу, він буде підтримувати роботу bottleneck доки інше обладнання простоюватиме.
  6. Скоротіть простої. Уникайте планових та позапланових простоїв. Якщо обладнання bottleneck вийде з ладу під час робочого процесу, негайно відправте ремонтну бригаду, щоб відремонтувати та запустити його. Також постарайтеся скоротити час переналагодження обладнання з одного продукту на інший.
  7. Удосконаліть процес саме у вузькому місці. Використовуйте VSM, щоб усунути дії, що не додають цінності, і скоротити час на додавання цінності, позбавившись втрат. У результаті ви отримаєте більше короткий часциклу.
  8. Перерозподіліть навантаження на bottleneck. Якщо можливо, розділіть операцію на частини та призначте їх на інші ресурси. У результаті ви отримаєте коротший цикл і збільшену потужність.


Другий підхід

Продаж надлишків виробництва, які випускає обладнання, що не відноситься до пляшкового шийки.

Наприклад, у вас на лінії 20 ін'єкційних пресів, а ви використовуєте лише 12 із них, тому що обладнання bottleneck не може переробити випуск усіх 20 пресів. У цьому випадку ви можете знайти інші компанії, які зацікавлені у субпідряді на операції лиття під тиском. Ви будете у прибутку, тому що отримаєте від субпідрядників більше, ніж ваші змінні витрати.


Третій підхід

Скорочення потужності, що не використовується.

Третій варіант оптимізації виробництва — розпродати обладнання з екстра потужністю та скоротити чи перемістити персонал, який його обслуговує. В цьому випадку потужність всього обладнання буде зрівняна.


Приклади bottleneck поза виробництвом

Транспорт

Класичний приклад — пробки на дорогах, які можуть постійно утворюватися у певних місцях, або тимчасово з'являтися під час ДТП або проведення дорожніх робіт. Інші приклади – шлюз на річці, навантажувач, залізнична платформа.

Комп'ютерні мережі

Повільний Wi-Fi-роутер, підключений до ефективної мережі з високою пропускною здатністю, є вузьким місцем.

Комунікація

Розробник, який шість годин на день проводить на нарадах, і лише дві години пише код.

Програмне забезпечення

У додатку теж є вузькі місця - це елементи коду, на яких програма "гальмує", змушуючи користувача чекати.

"Залізо" комп'ютера

Вузькі місця в комп'ютері - це обмеження апаратних засобів, при яких потужність системи обмежується одним компонентом. Часто процесор розглядається як обмежуючий компонент відеокарти.

Бюрократія

У повсякденному житті ми часто зустрічаємося з вузькими місцями. Наприклад, коли раптово закінчуються бланки для паспортів або прав водія і вся система зупиняється. Або коли потрібно пройти медогляд, а кабінет флюорографії працює лише три години на день.

Вердикт

Вузькі місця у виробництві, менеджменті та житті – це точки потенційних покращень.

Розширення bottleneck дасть відчутний приріст продуктивності та ефективності.

А не звертати уваги на обмежуючі елементи системи — значить недоотримувати прибуток і працювати гірше за свої можливості.




Top