A probléma megoldásán persze vélhetően az összes csúcsmérnök megkezdte a munkát az Intelnél, ennek ellenére a megoldás kulcsát a mai napig nem igazán találták meg. Erről szeretnénk most néhány tapasztalatot megosztani az olvasókkal, illetve a cikk első felében összeszedném azokat az információkat, amiket a két hónap alatt eddig megtudtunk a két hibáról.
Először is fontos leszögezni, hogy rengeteg médiában megjelent cikk általánosságban említi a processzorokat, hogy mind sérülékeny, de ez nem teljesen így van. Ugyanakkor az említett két sebezhetőség valamelyike szinte minden felhasználót érint a világban. A Meltdown hibában az Intel által az elmúlt 20 évben gyártott szinte minden (csak néhány korábbi Atom processzor és a rég elfeledett, jellemzően szerverekben használt Itanium kivétel) processzor érintett. Más gyártók a Meltdown problémában nem érintettek. A Spectre sérülékenységnek viszont két különböző fajtája is ismert, ezek közül jelenlegi ismeretek szerint a kevésbé érzékeny 1-es típusban érintett az AMD is, a súlyosabb 2-es típust szintén csak az Intel chipjeiben azonosították. Rossz hír viszont a mobilos felhasználóknak, hogy a jellemzően mobileszközökben jelen lévő ARM processzorok is érintettek a Spectre problémában, ahogyan az NVidia is jelezte, hogy egyes grafikus chipjeivel szintén baj van. A probléma tehát igen súlyos és mindenkit érint a világban, bár nem egyformán, a továbbiakban megnézzük melyik sebezhetőség milyen problémákat vet fel és annak mi a megoldása.
A Meltdown sebezhetőség
Először is kezdeném ezzel a problémával, mivel az Intel által a világ nagy része érintett és ez a hiba ráadásul a súlyosabb. Egyrészt könnyebben kihasználható, mint a Spectre, másrészt a hardveres hiba jellegéből adódóan bármilyen operációs rendszeren fennáll. A nagyobb szoftver gyártók (Microsoft, Apple) már mind adtak ki javításokat rá, hogy a rést befoltozzák, illetve a legújabb Linux kernelek is nyújtanak már védelmet, ezek alkalmazásával is adódnak gondok, de erről bővebben majd a folytatásban. Jelen cikknek nem témája részletesen kitárgyalni a processzorok belső működését, arra rengeteg írás született már a neten magyar nyelven is. Amit esetleg egy átlag felhasználónak tudnia érdemes, hogy a processzorok munkájuk során adatokat töltenek be különböző átmeneti memóriákba (cache), hogy ott dolgozzanak velük. A különböző programok által kezelt minden adat átfut itt, amire most biztonsági kutatók olyan kiskaput találtak, amin keresztül ezek az átmeneti tárolók megcsapolhatóak. Ezért (teljes joggal) a világméretű pánik, mivel az Intel processzorai szinte mindenhol jelen vannak és így a rés is velük együtt. Az AMD tulajdonosok örülhetnek, ők nem érintettek.
A Spectre sebezhetőség
Egy kicsit más jellegű, de szintén a processzorok működési mechanizmusán alapuló biztonsági probléma a Spectre. Egyedül ebben hasonlítanak a Meltdownnal, illetve közös pont még, hogy az Intel processzorai ugyanúgy érintettek benne, ráadásul ők egyedül akik mindkét típusú Spectre támadással szemben védtelenek. A jó hír ezzel szemben, hogy a Spectre sokkal nehezebben kihasználható biztonsági rés és kevésbé kritikus is, illetve szűkebbek a lehetőségek is egy Spectre alapú támadás során. A rossz hír viszont, hogy szoftveresen nem javítható. Tehát ez a probléma egyedül a processzorok cseréjével lesz csak teljes mértékben kiküszöbölhető. Az AMD tulajdonosok ismét örülhetnek, jelenlegi ismereteink szerint ugyanis csak az 1-es számú Spectre támadással szemben védtelenek és azzal szemben is csak egyes Linux változatok gyáritól eltérő kernel beállításai esetén, a 2-es számú egyáltalán nem fut le rajtuk. Ezzel szemben az Intel processzorok minden operációs rendszer alatt érintettek mindkét Spectre támadással szemben. Itt lényegében a felhasználói fiókok és a jogosultságok közötti falat törik át, jellemzően böngészőn keresztül. A processzor egy tervezési hibáját kihasználva úgy fér hozzá egy program kód egy másik adatához, hogy közben a rendszer szintjén nem lehetne ahhoz hozzáférése. A jelenlegi állás szerint erre nem tudnak biztos szoftveres megoldást adni, ugyanakkor a szoftver gyártók és a legelterjedtebb böngészők fejlesztői már adtak ki frissítéseket a szoftvereikhez, amelyek a Spectre ellen hivatottak védeni.
A megoldás: szoftverfrissítés?
A Meltdown problémában a legjobb hír, hogy van rá biztos szoftveres megoldás, sőt már szinte minden rendszerre adtak is ki frissítést. A rossz hír az Intel processzorok tulajdonosainak, hogy az alkalmazása 5-50% közötti lassulást fog jelenteni programtól függően (egyes források szerint 5-30%), ami az olyan rendszereknél, ahol egyébként is nagyon ki van hegyezve a hardver komoly problémákat fog okozni. Ezzel szemben egyes források szerint a problémát a kezdetben kiadott frissítések nem oldották meg, sőt egyéb problémákhoz is vezettek. Egy dolog biztos, hogy több általunk felügyelt rendszeren a naprakész Windows és a konkrét Windows Update csomag telepítése után is sebezhetőnek jelzik a gépeket a tesztprogramok, ami egybevág több szakmai portál információival is, miszerint a hibát azóta sem oldották meg. Csak bízni tudunk benne, hogy az IT történelem legnagyobb biztonsági incidense nem marad hosszú ideig megoldatlan…
Nemrégiben felújításra került az otthoni gépem, a régi 8 magos AMD FX processzor helyére egy új Ryzen érkezett, AM4-es alaplappal és DDR4-es RAM-okkal. Gondoltam ha már lúd legyen kövér és a régi jól bevált SATA-s SSD-t is lecserélem egy M2-es foglalatúra, úgyis kevés volt a hely. A választás a Samsung 960 EVO-ra esett, 250GB-os méretben. A gyártó 3200MB/s olvasási és 1900MB/s írási sebességet ígért. A cikkből kiderül mi a valós teljesítmény és milyen egyéb buktatók jelentkeztek a használat során.
Az NVMe (más néven NVM Express) típusú SSD nem újkeletű dolog, a lényeg azon van, hogy a kis M2 foglalat segítségével egy csavarral rögzített, kinézetében a hagyományos RAM-okra hasonlító SSD-t a SATA adat csatorna helyett a PCIe buszra csatolja rá. Míg a SATA3 szabvány elméleti maximuma 600MB/s körül mozog, addig a PCIe 4.0 szabvány ennek a sokszorosát biztosítja. Persze nem csupán ennyi különbség van a két szabvány közt, aki kíváncsi a részletekre, nézzen szét itt: https://en.wikipedia.org/wiki/NVM_Express
Az alábbi táblázatban láthatjuk a PCIe foglalat különböző verziói által elérhető sávszélességeket, ezek közül a 4.0 szabvány a jelenlegi legújabb, az 5.0 2019-re várható a tervek szerint.
A nagyobb sávszélesség és a jelenlegi félvezető technológia tehát megadja a lehetőséget, hogy növelt sebességű tárolókat használjuk, a jelenleg is remek teljesítményt nyújtó SATA SSD-k helyett még gyorsabb M2 foglalatba illeszkedő NVMe modulokat. Persze a történet azért nem ennyire egyszerű, ahogyan a cikk végére látni fogjuk rengeteg buktatót kell kiküszöbölnie azoknak, akik valóban gyors tárolót akarnak és mellé a stabilitás sem utolsó szempont. Elsőként említeném meg, hogy aki NVMe-re adja a fejét az mindenképpen bizonyosodjon meg róla, hogy a legfrissebb BIOS (UEFI) fut az alaplapján. Ahogy említettem nem újkeletű technológiáról van szó, viszont kezdetben az alaplapok hiába tudták fogadni az ilyen csatolóval érkező tárolókat, bootolni már nem voltak képesek róla. Így a friss Windows telepítésekor azt tapasztalhatjuk, hogy az első újraindítást követően „no boot device” üzenet fogad minket. A BIOS-hoz visszatérve azzal sem árt tisztában lenni, hogy az M2 foglalat használatával a legtöbb alaplap esetében SATA portokat veszítünk el, ahogyan az én ASUS-om esetében is le kellett mondjak az 5-6. portról.
Ha a legfrissebb BIOS fent van, újabb szoftveres buktatók következnek. (Itt fontos megjegyeznem, ha kicsit is bizonytalanok vagyunk a BIOS frissítés terén ne féljünk segítséget kérni szakembertől.) Ennyire új hardverek esetében talán már mondanom sem kell, hogy mindenképp a Windows 10-et javaslom, ahogy a tapasztalat megmutatta abból sem érdemes a legrégebbi telepítőkkel kísérletezni. A 1607-es változat már gond nélkül kúszott fel az SSD-re, majd a telepítést követően azonnal frissítésre került a 1703-asra. A legfrissebb driverek felkerültek, elkezdhettem belakni a gépet. A gép nagyon fürge lett, az első pillanattól kezdve nem okozott csalódást, a 1703-as Windows frissítés is a letöltést követően percek alatt felkerült rá. Az első mérések szerint az SSD közel tudta azt a sebességet, amit a Samsung ígért. Aztán jött a feketeleves.
Második nap először egy nagyobb program telepítése (25-30GB) alatt iszonyatos laggolást vettem észre. Elsőre nem tudtam mitől van, de 2-3 órányi szenvedést (egér kurzor megáll, folyamatjelző percekig áll, továbbmegy, megint megáll…) követően némi guglizás után kiderült, hogy a probléma a Ryzen processzor körül keresendő, annak is az energiagazdálkodása okoz gondot a 1703-as Windows-nak. (A Ryzen ne feledjük a második negyedévben érkezett, míg a 1703-as Windows verzió a márciusra utal, tehát némiképp felkészületlen volt még a rendszer rá.) Sokan ezt az Insider programon belül letöltött 1709-es frissítés előzetesével orvosolták sikerrel, nekem nem volt kedvem kísérletezni, így az energiagazdálkodásban eszközöltem pár ajánlott módosítást, ami után sikeresen fel tudtam telepíteni a programot. Az egér kurzor rendszeres akadozása (régebbi gépekről ismert megszakítás vezérlési hiba) ugyanakkor megmaradt és még aznap este jött az újabb probléma. Amikor munkába lendültem volna a gép kb. óránként fagyott. Elsőre a mentés gombra kattintva kezdett homokozni, majd a megnyitott ablakok közt még lehetett váltani pár alkalommal, majd kb. fél perc múlva az egér kurzor is megfagyott. Ez már inkább tároló problémának tűnt. Végül kiderült, hogy jó a megérzésem, a 1703-as Windowsban már megjelent egy új energiagazdálkodási funkció kimondottam NVMe szabványra vonatkozóan, amit első körben registryből kellett bekapcsolni, majd egy fórum ajánlása alapján beállítottam az értékeket. A fagyás megszűnt.
A gép ezt követően már stabil maradt, megszűntek a laggolások és a fagyások is. Egyedül az egérkurzor véletlenszerűen visszatérő akadozás problémája nem szűnt meg, de tudtam, hogy a Ryzen processzor kezelése majd csak a 1709-es Windows verzióban lesz tökéletes, addig pedig ekkor már csak 1 hét volt, kivártam. A 1709-es frissítés aztán minden korábbi problémát orvosolt, így mostanra egy stabil és gyors gépen dolgozhatok.
A Samsung SSD esetében fontos még szót ejteni a hozzá adott Samsung Magician szoftverről. Egy nagyon hasznos kis alkalmazást kapunk hozzá, amivel könnyedén nyomon követhetjük a meghajtó állapotát, mérhetjük a sebességét, optimizálhatjuk a meghajtót (TRIM), és az over provisioning funkció segítségével növelhetjük a meghajtó teljesítményét és élettartamát.
Elsőként essen szó a Magician féle teljesítmény mérésről. A metodika ismeretlen, mindenesetre 3200MB/s-tól a 2000-ig terjedő skálán ahány mérés annyiféle eredmény született nem kis szórással. Hozzá kell tenni a rendszer ez idő alatt az SSD-ről futott, ahogyan majd a későbbi AIDA tesztekben is így lesz, ez némiképpen árnyalja az eredményt. A 2000MB/s is szép eredmény mindenesetre, nem beszélve az elérési időkről, az IO eredményekről.
Az over provisioningról is érdemes néhány szót ejteni. Akik kicsit jártasabbak az SSD technikában azok tudják, hogy az SSD-k esetében szokás egy bizonyos területet fenntartani és nem használni. Ha van szabad terület az SSD némi trükközéssel spórolni tud az adatblokkok felülírásának számán, ami az élettartamának legnagyobb ellensége. Ennek a folyamata és mikéntje egy külön cikket is megérne, most maradjunk annyiban, ha az SSD-nek van olyan szabad, formázatlan területe, ami nincs használatban azzal tudja növelni az élettartamot. Ebben segít nekünk az over provisioning funkció, ami ezt automatikusan beállítja nekünk. Vannak olyan SSD-k is, amelyekben gyárilag ki van ez alakítva és nem kell vele törődjünk, általában a méretéből látszik melyik ilyen. Például a 240GB-os SSD-k rendre 256GB-osak fizikailag, itt 16GB van fenntartva gyárilag, amit a lemezkezelőben már nem is látunk. A Samsung Magician-ben ez megjelenik, vélhetően itt nincs gyárilag rejtett terület.
Végül következzenek az AIDA által mért eredmények szépen sorjában. A linear read test suite lényegében minden fontos paraméterre megadja nekünk a mérési eredményt. Érdemes viszont megnézni az average read access tesztet is, ami az átlagos elérési időket mutatja meg. Ez az az érték, ami igazán pörgőssé tesz egy SSD-t és ez az, amiben a hagyományos merevlemezekhez képest utcahossznyi, behozhatatlan előnye van. Míg egy jobb merevlemez elérési ideje átlag 8-10ms körül mozog, a véletlenszerű adatelérés esetén, amikor a fejnek be kell gyűjteni az adatokat ez még több, addig az NVMe típusú SSD 0.05ms értékkel hasít.
A gyakorlati tapasztalat azonban egy picit más képet fest. 2 hónapnyi használat után azt mondhatom, hogy az esetek nagy többségében, a mindennapi használatban a szupergyors NVMe SSD előnyei nem jönnek elő. A korábbi SATA OCZ-vel összehasonlítva, ami gyári előírás szerint 500MB/s körül tudott, a gyakorlatban picit kevesebbet, a kettő közti sebesség nem vehető észre. A „csak” 500MB/s és a picit nagyobb késleltetés mellett is mire az egérgombot felengedtem megnyílt a böngésző, vagy a kisebb program, Office alkalmazás, amit épp használtam. Egy Adobe Photoshop vagy Illustrator már picit többet tekert, most a legújabb verzió betöltési ideje 3 másodperc körül van. (Nyilván ebben némi szerepe azért a CPU-nak és a DDR4-es memóriának is van.) Amikor a program betöltött a működése alatt nem venni észre különbséget, ha menteni kell jellemzően azért nem akkora fájlokat, ami a régi SATA SSD-n percekbe telt volna. Nyilván 0,6 másodperc és 0,2 között nem érzékel az ember akkora különbséget, mert íráskor kb. ennyi a különbség az NVMe javára. Olvasáskor picit nagyobb, de itt megintcsak nem jön elő a különbség, csak ritka esetekben érzékelhető. Kicsit az embernek az az érzése, mintha anno a HDD-ről SSD-re váltáskor egy kis köbcentis régi Suzukiból egy jóval nagyobb lóerejű, villámgyors német prémium autóba ülne át, majd azt cserélné egy 1000 lóerő környéki sportkocsira. Ritka az az eset, amikor igazán elő tud jönni a plusz erő és még hasznos is tud lenni. Picit sántít azért a példa, mert vannak sokan olyanok, CAD-es programokkal dolgozó mérnökök, videóvágással, esetleg 3D-vel foglalkozó emberek vagy hardcore játékosok, akiknek napi szinten segítséget nyújthat, de a mindennapok emberének nem fog többet nyújtani egy ilyen SSD. Az ára miatt ugyanakkor egyre inkább elérhetővé válik a technika, a kipróbált Samsung 250GB-os SSD például 30 ezer nettó körüli áron már elérhető, ami alig pár ezer forinttal drágább, mint hasonló kapacitású, márkás SATA csatlakozóval ellátott társai. Ha valaki olyan munkát végez mindenképpen megéri neki befektetni egy ilyenre, otthoni felhasználásra vagy irodába ugyanolyan élményt nyújt továbbra is a hagyományos SSD. Cserében viszont kevesebb szoftveres problémával kell megküzdeni.
A tesztben szereplő SSD-t az alábbi hardverekkel teszteltük.
Alaplap: ASUS Prime B350-Plus (0902-es BIOS)
Processzor: AMD Ryzen 5 1500X
Memória: Kingston 2133MHz DDR4
Számos hardverelemet választhattunk volna cikkünk témájául – meg is fogjuk tenni a későbbiekben – de ezúttal mégiscsak a rendszer lelkéről, a műveletvégző egységről, a számítógép processzoráról és annak fejlődéséről lesz szó.
Ahogyan a rövid bevezetőben is jeleztük, ez az a részegység ami alapján meghatározzuk mennyire gyors vagy sem a gépünk. Persze az elkészült, feldolgozott adatokat tudni kell megfelelő sebességgel tárolni, betölteni, kiírni és vannak speciális feladatok is, de az alapvető műveletek elvégzése mindig is a processzor (CPU) feladata volt és az is marad.
A Neumann-féle számítógépek óta ez a részegység hatalmas fejlődésen ment keresztül. A gyártástechnológia és a miniatürizálás modernizálásával egyre több tranzisztort lehetett egyre kisebb helyre zsúfolni, így a mai processzorok már több milliárddal rendelkeznek. Sokan ismerhetik egyetemről, főiskoláról vagy akár egyéb internetes olvasmányokból az Intel egyik alapítója után elnevezett Moore-törvényt, ami szerint „az integrált áramkörökben lévő tranzisztorok száma – ami használható a számítási teljesítmény durva mérésére – minden 18. hónapban megduplázódik.” Ugyan ez a tendencia ma már azért nem állja meg teljes mértékben a helyét, azért jól mutatja a technológiai fejlődés mértékét.
A processzorok fejlődése
Természetesen bár az alapok még a régiek, a mai processzorok már tényleg csak nyomokban hasonlítanak azokra, amelyekre a számítástechnikai ősatyjai, technológiai óriásai alapoztak. Az első új szelek 2002-ben kezdtek fújni, amikor is az Intel beépítette a HyperThreading technológiát a processzoraiba. Ezt a többszálasításos technikát végülis tekinthetjük a több magos processzorok elődjének, még ha nem is lett annyira sikeres, a gondolkodásmód mégiscsak változott. Korábban a gyártók egyszerre hajszolták az órajelet, az egyre újabb utasításkészleteket és különböző gyártástechnológiai váltásokkal, a kisebb méretű lapkáknak köszönhetően próbálták a fogyasztást és a vele járó hőmennyiséget csökkenteni. Aztán a két nagy gyártó rivalizálása a piacon egy nagy órajelháborúban csúcsosodott ki valahol 4GHz környékén, ahol már nem lehetett a hagyományos léghűtéses technikák mellett kordában tartani a hőt és az energiatakarékossági szempontok is egyre inkább előrébb törtek, ezért taktikát kellett változtatni. Bár a technológia lehetővé tenne ettől lényegesen magasabb órajelet is, az egyéb szempontokat figyelembe véve mindkét nagy gyártó, az Intel és az AMD is belátta, hogy nem jó az irány. Elkezdték tehát a magot fejleszteni és az egy órajel ciklus alatt elvégzett műveletek számát növelni. Erre született első megoldásként a HyperThreading, ami többszálú feldolgozást tett lehetővé és nem keverendő össze a multitasking fogalmával, ami az operációs rendszerekből jön. Természetesen nem minden program futása gyorsult ettől, viszont a hardverrel együtt fejlődött szoftverek lehetővé tették a feldolgozás gyorsítását, miközben a gyártó nem növelte az órajelet. Képzeljünk bele abba, hogy egy gyártósornál ülünk, ahol egyenletes tempóban végezzük a munkánkat. Két művelet között van egy pici időnk, így a jobb kihasználtság érdekében beszervezünk oda valami olyan feladatot, amit a köztes időben el tudunk végezni vagy netán olyan feladattal töltjük ki az időt, amivel gyorsítunk majd a következő művelet elvégzésén. Valami hasonlóról szólt a többszálasítás, némi plusz szervezéssel, a szoftverek hozzá hangolásával önmagában ezzel a funkcióval is sikerült gyorsulást előidézni.
Persze ez még csak az előfutára volt a későbbi technikának, a több magos processzoroknak. Itt már több futószalag fut egyszerre, mindegyik dolgoz fel adatokat. Aztán ennek továbbfejlesztéseként a gyártók elkezdték szervezni a magok közötti munkát, közös gyorsítótárat (cache) vezettek be és a kezdeti változatok után valódi csapatmunkát kezdtek végezni ezek a magok. Közben persze történt még számos fontos újítás is, például a memória vezérlés terén, először az AMD-nél, majd nem sokra rá az Intelnél is bekerült a memória vezérlő a processzor foglalaton belülre, így sokkal közvetlenebb és gyorsabb memóriavezérlést lehetett megvalósítani. A processzormagok közötti szervezés fejlesztése aztán elhozta számunkra a ma kapható processzor generációt és egy új irányvonalat mutatott a gyártóknak, amit a mai napig követnek.
A mai modern processzorok
Ha már az irányvonalakról esett szó nagyon fontos megjegyezni egy szintén processzorokhoz köthető, de kicsit más jellegű vonalat. Ez pedig nem más, mint a beépített grafikus processzor, amit a gyors elérésű memóriavezérlő sikere alapján az AMD vezetett be először. Ezeket nevezik CPU helyett APU-nak, hiszen a szokványos feldolgozó egység mellett a tokozásba belekerült egy grafikus chip is, amit amúgy korábban az alaplapra forrasztva vagy külön videokártyán vásároltunk meg. Mivel fizikailag messzebb vannak a processzor kimeneteitől és így némi extra válaszidővel tudnak csak kommunikálni, ha nincsenek egy helyen. Így a memóriavezérlőhöz hasonlóan nagy sikert aratott ez a technika, amit rövid időn belül az Intel is átvett és a ma kapható processzorok nagy részében meg is található ez a grafikus chip, így az alaplapon lévő monitor csatlakozók csak egy kivezetésnek tekinthetőek, a képi elemek előállítása már a processzorban zajlik. Ezek az egységek ma már egészen elfogadható teljesítményre képesek, de azért ha igazi grafikus teljesítmény kell, mondjuk játék vagy 3D tervezési feladatokra ugyanúgy kénytelenek leszünk egy plusz videokártyával bővíteni a gépet.
Aztán van egy másik irányvonal is, amit pedig a mobileszközök elterjedése keltett életre. Valójában ezekben nem a hagyományos típusú CPU-k vannak jelen, hanem úgynevezett RISC típusúak, amely a Reduced Instruction Set rövidítésből ered, tehát ezek lényegesen egyszerűbb felépítésű, csökkentett utasításkészlettel rendelkező egységek. Lényegében minden egyszerűbb hardver ilyen típusú processzort használ, legyen ez egy hálózati eszköz (pl. router) vagy akár egy bővítő kártya (pl. hálózati kártya) vezérlő chip-je. Mivel a mobileszközök sokkal egyszerűbb felépítésűek voltak kezdetben, ezért ez az architektúra terjedt el bennük, melyeket továbbfejlesztettek és az X86 és AMD64 architektúrás példányokhoz hasonlóan ugyanaz az irányvonal mutatkozik meg bennük, egyre inkább javítják a többmagos feldolgozást, a gyártástechnológiát és ezzel érnek el egyre jobb műveleti teljesítményt, egyre kevesebb felhasznált watt-al. Ezen a területen a hagyományos Intel-alapú processzorok éppen emiatt nem rúgnak labdába, mivel a teljesítmény/fogyasztás arány az akkumulátoros eszközökön elsődleges prioritással bír, az okostelefonok piacán nem véletlen sokan azt nézik melyik példány hány napig bírja egy feltöltéssel.
Ezen a ponton tegyünk egy rövid, de érdekes történelmi kitekintést hogyan is alakult a két nagy processzorgyártó története. Egészen pontosan sokan nem is gondolnák hogyan keletkezett az AMD, a „kisebbik” óriás. Annak idején a 70-es években, amikor a mai számítástechnika meghatározó alakjai bontogatták szárnyaikat még csak egy nagy processzorgyártó létezett, aki a 8086-os processzorával történelmet írt a piacon, ez volt az Intel. Ennek az architektúrának az alapjaira épülnek a mai processzorok, egészen pontosan a 32 bites részük, a 64 bitest már AMD64-nek hívják. Senki nem gondolná, de mégis igaz, az AMD-t az Intel keltette életre, nem szimpla inspirációval, hanem tőkét, tudást és pénzt adott egy csapatnak, hogy létrehozzanak egy konkurens céget a piacon, aminek odaadták egy licencszerződés keretében az X86-os processzorok gyártásához szükséges jogot is. Mielőtt bárki azt gondolná nem őrültek meg az Intelnél, nem csupa jó szándék vezérelte őket. Amerikában akkoriban (és talán még ma is) volt egy olyan törvény, ami kizárta állami beszerzésekből a monopól helyzetben lévő cégeket. Márpedig a friss technikára bőven lett volna kereslet az államtól, de a törvényeik kizárták, hogy az Intel beszállítson. Ezért kellett egy konkurens, aki úgysem jelent veszélyt, így hoztak létre egyet maguknak. Aztán később ez a konkurens, először a 80-as években a K6-os processzorok megjelenésével, majd a K7 Athlon életre keltésével tört nem kevés borsot a riválisa orra alá, majd most a legújabb Ryzen processzorokkal, de ne rohanjunk ennyire előre…
A rövid történeti kitekintés és az egyéb utak megtárgyalása után térjünk vissza eredeti témánkhoz, a ma kapható hagyományos PC processzorokhoz, ide sorolva a mai kínálat többségét kitevő APU-kat is, tehát a grafikus maggal is rendelkező változatokat. Az elmúlt néhány évben a fejlődés kicsit leragadt, nem pörgött akkora intenzitással, mint azt korábban megszokhattuk. Ennek több oka is van. Egyrészt az Intelt korábban nagyon megszorongató rivális AMD folyamatosan lemaradt az elmúlt kb. 10 év versenyében, így nem volt ami a nagy óriást igazán cselekvésre ösztönözze. Ezzel együtt a hagyományos PC ipar is visszaesett (a mobileszközök terjedésével), illetve átalakult és változott a felhasználás is. Míg korábban a nagyteljesítményű processzorok tipikus felhasználói a gamerek voltak, addig a játékkonzolok elterjedésével egyrészt a PC ipar ugyancsak alulteljesített (bár a konzolokban is hagyományos CPU-k találhatóak), ráadásul korábban elértek egy olyan teljesítményszintet, aminél a legtöbb alkalmazás egyszerűen nem igényelt többet. Kevesen vágnak videót, terveznek 3D-ben, vagy renderelnek, esetleg játszanak 4K-ban, ami igazán igénybe venné ezeket a processzorokat. A kereslet és az igény csökkenése pedig szintén nem vitte előrébb a gyártókat, pontosabban az AMD ezidáig gőzerővel dolgozott egy nagy dobáson, amit a Ryzen névvel fémjelzett processzoraival nemrégiben piacra is dobott. Az pedig, hogy mennyire igaz a fentebbi megállapítás, miszerint a nagytestvér ellustult jól példázza, hogy az első Ryzen teszteket követően az Intel azonnal lépett és elővette a tarsolyából az i9-es processzorát, ami az i5 és i7 folytatásaként szeretné megszorongatni a kistesót. Az AMD erre válaszként bejelentette újabb Ryzen processzorok érkezését, így az elkövetkező hónapok ádáz teljesítmény csatával fognak telni.
Természetesen ezzel együtt az irányvonal nem változott. Az AMD a Ryzen-nel teljesen átszervezte a processzora feldolgozási folyamatait, miközben az érkező új termékei az előzőekhez képest újabb gyártástechnológiával és alacsonyabb órajelekkel érkeznek, miközben a felszabaduló watt-okat további magok táplálására fordítják, tehát tovább növekszik a magszám. Korábban éppen az mutatta az AMD gyengeségét, hogy a csúcs processzoraival az Intel középmezőnyével úgy versenyzett, hogy közben a lehető legmagasabbra növelte az órajeleit, közelítve a 4GHz-es lélektani határokhoz, ahol magas fogyasztással, kezelhetetlen melegedéssel kellett megküzdeni. Ahhoz, hogy megértsük a mai processzorokban rejlő erők forrásait egy autós példával fogok élni, ami tökéletesen példázza mi történik ma a számítástechnika ezen területén. Egy mai autó motorjának a teljesítményét ugye sok tényező határozza már meg, régen a motorok ún. sima szívók voltak, 4 henger, 8 szelep, és hozzá a köbcenti. A processzorok esetében az órajel pontosan ugyanaz, mint az autók esetében a köbcenti. Szerepe ugyan van a lóerők számának alakulásában, de ma már a gyártók törekednek a kis köbcentis, turbós motorokra, ahol általában már 16 szelep dolgozik, változott a befecskendezés (ahogy a processzorokban a szervezés), és V6, V8 motorok is elérhetőek turbós és sima változatban is utcai autókban. A befecskendezés tehát legyen a processzor belső munkaszervezése, a hengerek száma a processzor magok száma, a szelepek pedig a végrehajtási szálak (HyperThreading), turbónak tekinthetjük a beépített memóriavezérlőt, az új processzorokban jelen lévő órajel kezelő automatikát, amit ráadásul TurboCore-nak is hívnak (visszaveszi menet közben XY kevésbé terhelt mag órajelét és a felszabaduló energiakerettel megtolja picit a terheltebbek órajelét), végül pedig a köbcentihez hasonló mérőszámként ott áll az órajel. Ezeknek a technikáknak a képlete adja meg egy mai processzor teljesítményét. Az autós példa azért is nagyon jó, mert még egy halom fontos ponton lehet párhuzamot vonni. Hiába a nyers motor erő, ha nem sikerül azt átvinni az útra (processzor-memória közötti tempó és a bevezetőben már említett háttértárak szerepe), illetve a teljesítményleadás nem egy állandó függvénye. Az autóban az adott sebességi fokozathoz társított fordulatszám ad egy értéket, hogy mekkora a nyomtaék és lóerő azon a ponton (teljesítmény görbe), a számítógép processzor esetében pedig ugyanez a helyzet az adott alkalmazások futtatása során. Az egyik fel van készítve többszálas/több magos feldolgozásra, a másik nem, az egyik program kihasznál egy adott utasításkészletet a processzorban a feladata gyorsítására, a másik nem. Az egyik program a CPU egyik egységét, a másik a másikat mozgatja meg jobban és ezek nem egyforma sebességre képesek, továbbá adott esetben belejátszik a képletbe az első, második és harmadik szintű gyorsítótár mérete és sebessége is. Így a „nyomaték görbe” vagy a PC esetében a teljesítmény típusonként változó. Ugyanígy a szerverekbe gyártott processzorok (Intel Xeon, AMD Opteron) teljesítménye is eltér szerver környezetben a hagyományos asztali modellekhez képest, mivel más képességekkel vannak kiképezve, másra vannak optimalizálva.
Ennek megfelelően érdemes egyébként a megvásárolni kívánt egységet is megválasztani. Ezzel el is érkeztünk utolsó témánkhoz.
Milyen processzort válasszak?
Rengeteg szempont létezik a kiválasztásnál, szinte lehetetlen minden felsorolni és kitárgyalni.
Első körben fontos tisztázni milyen felhasználásra szeretnénk elsősorban használni, ahhoz pedig milyen teljesítményre van szükség. A szoftver gyártók meg szoktak adni egy alap specifikációt, ami iránymutatásnak megfelel, általában az ajánlott oszlopot érdemes elolvasni.
A felhasználási kör már segít kiindulni. Amióta világ a világ ár/teljesítményben az AMD mindig az Intel előtt volt. Nem is nagyon tudott mást tenni a fennmaradás érdekében a kisebbik gyártó, egyszerűen olcsóbban adja az ugyanolyan teljesítményű megoldásait a riválisánál. Tehát a pontszám/forint mutató jobb. Akik figyelmesen olvasták az előzményeket itt most az is beugorhatott nekik, hogy a pontszám az bizony felhasználási területenként változhat, tehát az arányban csak az ár a fix. Általánosan elmondható az elmúlt időszak tendenciáiból, hogy az AMD-t a játékosok veszik. A játékok rendre jól futnak több magon, illetve az AMD az ATI felvásárlással egy olyan GPU gyártót kebelezett be ami jót tett a cégnek ezen a területen és ez a processzorok, a grafikus képességek terén is jól látszik. Nem véletlen, az XBox játékkonzolokban hosszú ideje AMD-ATI párosítás lakik. Ugyanakkor ha a játékosok szűk rétegét elhagyjuk a többi területen már inkább az Intel érvényesül. Az energiagazdálkodási szempontokat figyelembe véve régóta köröket ver az AMD-re, tehát ahol ez magasabb prioritású, fontosabb szempont ott biztosan valamelyik Intel modellből kell választani. Az irodai processzorok terén az igényelt teljesítménytől függően valamilyen Celeron vagy Pentium típust, komolyabb munkákra már az i betűvel kezdőeket. Tehát i3, i5 és i7, hamarosan pedig az i9 is elérhető lesz. Az i3-as modellek már komolyabb irodai felhasználásra, néhány éves játékokhoz, kicsit nagyobb műveleti teljesítményt igénylő feladatokra is alkalmas 2 magos processzorok. Az i5-ösök már az Intel komolyabb játékok, 3D-s alkalmazások, 4K-s videók kezelésére is alkalmas 4 magos megoldásai. A legnagyobb műveleti igényű alkalmazásokhoz pedig ott vannak a leggyorsabb i7-es modellek. Ezt a piacot formálja most át egy kicsit az AMD új Ryzen szériája, amely a csúcsra tör és a nagyobb modelljei rendre az i7-esekkel szállnak ringbe, persze ennek megfelelően alakulnak az áraik is. Annak eldöntésére pedig, hogy kinek melyik a legjobb választás számos interneten elérhető teszt segít eligazodni, ahol rendre tesztelnek Photoshop-ot, renderelést, videó vágást, különböző játékokat és 3D-s dolgokat, tömörítést és nagyon sok minden mást. Ezeken meg lehet találni egy-egy típus hogyan teljesít.
Aztán sokak számára lehet érdekes az is, hogy az adott processzorban található GPU mire képes. Ma már a legtöbb alkalmas nagyfelbontású filmek akadásmentes lejátszására, vagy néhány éves játékok futtatására is. Sokan nem akarnak külön videokártyát, hanem az APU-ba integrált megoldás elegendő nekik. Minden processzorban más grafikus chip lakik, így az is elképzelhető, hogy egy erősebb modellt kell válasszunk ahhoz, hogy ne kelljen különálló VGA kártyába is beruháznunk.
Végül ejtenék pár szót az utasításkészletekről is. Vannak olyan programok, amelyek Intel processzorral futnak jobban és vannak, amelyek AMD-vel. Ennek egyik oka lehet a bennük rejlő utasításkészlet is, amelynek a lényege, hogy bizonyos célfeladatokat máshogyan oldanak meg, de ezekhez mindenképpen szükség van szoftveres támogatásra. Ha egy adott processzorban jelen van egy ilyen utasításkészlet, amit az adott program használ és a másikban nincs jelen, akkor az átlagostól eltérő sebességkülönbséget is érzékelhetünk a két egység teljesítménye között. Ezért is jöhet jól egy ilyen átfogó teszt ahol esetleg a speciális célszoftvert is kipróbálták a kiszemelt processzoron. Ha normál irodai munkára veszünk gépet, akkor szinte bármelyik, akár a legolcsóbb processzorral is megvehetjük, fontosabb az alacsony fogyasztás és a kis hő, míg játéknál ez a szempont nagyjából az utolsó helyre lép vissza és első a teljesítmény.
Reméljük cikkünket hasznosnak találta és segíthettünk újabb nézőpontokból megmutatni a témát. Ha ötlete, észrevétele vagy kérdése van ossza meg velünk, akár itt vagy a Facebook oldalunkon, örömmel válaszolunk rájuk!
A weboldalunkon sütiket használunk a felhasználói élmény fokozása céljából, hogy megjegyezzük a beállításokat és az ismételt megtekintéseket. Az elfogadásra kattintva minden ilyen süti használatát elfogadod.
This website uses cookies to improve your experience while you navigate through the website. Out of these, the cookies that are categorized as necessary are stored on your browser as they are essential for the working of basic functionalities of the website. We also use third-party cookies that help us analyze and understand how you use this website. These cookies will be stored in your browser only with your consent. You also have the option to opt-out of these cookies. But opting out of some of these cookies may affect your browsing experience.
Necessary cookies are absolutely essential for the website to function properly. This category only includes cookies that ensures basic functionalities and security features of the website. These cookies do not store any personal information.
Any cookies that may not be particularly necessary for the website to function and is used specifically to collect user personal data via analytics, ads, other embedded contents are termed as non-necessary cookies. It is mandatory to procure user consent prior to running these cookies on your website.