- Samsung Galaxy A55 - új év, régi stratégia
- Huawei Watch Fit 3 - zöldalma
- Samsung Galaxy A52s 5G - jó S-tehetség
- Motorola Edge 40 - jó bőr
- Samsung Galaxy S23 és S23+ - ami belül van, az számít igazán
- Ezeket a telefonokat mutatják be az idei nyár folyamán
- Fotók, videók mobillal
- iPhone topik
- Az iPhone 15 frissítésgaranciát, a 16 szép rendereket kapott
- Okosóra és okoskiegészítő topik
Hirdetés
-
Computex 2024: feltárta a Lunar Lake-et az Intel
ph Az új fejlesztésű dizájn teljesen a TSMC-re épít, és a mobilgépeket célozza meg.
-
Nem lesz idén Nothing Phone (3)
ma És az AI tehet róla.
-
Ismét láthatjuk hogy fest az Enotria: The Last Song
gp A korábbi halasztások után szeptember közepén elviekben végre megkapjuk a teljes kiadást.
-
Mobilarena
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
félisten
Okkay, csak aszittem, azóta ez már tisztázódott.
De akkor az már legalább tuti, hogy senki sem tud semmit. Ez is valami.Nem akarom tovább fosni a szót, de múltkor a BKV-n ülve - jobb dolgom híján - azon gondolkodtam, hogy az nV-féle mókának (hogy emulálva oldanak meg dolgokat) nincs véletlenül jó oldala is a játékokra optimalizálás szemszögéből?
Arra gondolok, hogy egy általánosabb felépítésű (GP)GPU-nál van lehetőség korrigálni a működést, és az erőforrások elosztását az odott játék igényei szerint.
Úgy, ahogy az unified shader is rugalmasabb, mint a fix shader egységek.
Vagy ez az előny elveszik az emulációból eredő veszteség miatt?Szólj, ha nagy hülyeségeket hordok össze!
[ Szerkesztve ]
Eladó régi hardverek: https://hardverapro.hu/apro/sok_regi_kutyu/friss.html
-
-
-
Yutani
nagyúr
Ha a második hír igaz, akkor már gyártják a chipet, mert csak annak lehet bármilyen is a kihozatala, amit már gyártanak. Legalábbis én úgy értelmezem. Viszont akkor az első hír tényleg hülyeség, mert abban meg azt írja, hogy a termelés beindítása csak október közepén esedékes.
#tarcsad
-
rocket
nagyúr
Ha nem valtozik az architekturajuk akkor az RV770 vs GT200 viszonylatban elmeleti alapon a GF380-nak az egalhoz a HD5870-nel ~1.90Tflops kellene.
Viszont ugye lathato a HD5870-nel a kulonbozo limitalto tenyezok miatt valos alkalmazasok alatt HD4890-nel is rosszabb a nyers es a valos teljesitmeny aranya, ami nem bizros 1:1-ben ugyanugy lesz az NV-nel is, mint ahogy az se biztos nincs-e meg valami a Cypress kapcsan az AMD puttonyaban meglepikent
Szoval osszefoglalva, vagy gyorsabb lesz, vagy nem
#1224: Ahoz, hogy az NV gyorsabb legyen DX11 alatt valami hatalmas meglepetes kene tortenjen, valami olyasmi mint amikor a G80 kapcsan ellentetes irannyal oltogattak mindenkit, vagya jatekfejlesztoknel kellene alkotniuk, ami ismerve oket nem a lehetetlen kuldetesek koze tartozik.
[ Szerkesztve ]
"A lower resolution generally means that there can be more quality per pixel."
-
hugo chávez
aktív tag
Én is remélem, hogy csak valami idióta írta, bár ha az Nvidia tényleg a HPC piacra szánja...
(#1232) zuchy: Hát, 40 nm és ~500 mm2 van írva, bár persze azért a Wikit nem kell készpénznek venni.
[ Szerkesztve ]
"sajnos ez a beszélgetés olyan alacsony szintre jutott, hogy a továbbiakban már nem méltó hozzám" - by Pikari
-
VinoRosso
veterán
Imádom amikor kiragadnak részeket az egészből
If you curious why practical results with nVidia's GPUs are better (i.e. closer to theoretical results) there is simple answer. nVidia's GPUs consists of scalar processors (can performs one instruction per clock) while Intel CPUs are superscalar processors (up to 4 instructions per clock) and ATI's GPUs are VLIW ones (5 instructions coded into one VLIW), so it's harder to code Intel and ATI to reach peak performance. From other side it means that results for Intel and ATI can be noticeably improved with better programming skills/ideas.
A FLOPS-okhoz ez is hozzátartozik a teljesség kedvéért.
-
rocket
nagyúr
Érvek érve éve
#1251: Nagy butasag lenne bealdozni, inkabb elkene akkor adjak ha mar minden kotel elszakadt, az Intel biztos urelne neki, meg az atnevezesek se sok csorbat ejtettek a brand megiteleseben az atlagfelhasznalok kozott.
[ Szerkesztve ]
"A lower resolution generally means that there can be more quality per pixel."
-
rocket
nagyúr
Regebben is csinaltak ezt, ezert erdemes inkabb fenntartasokkal kezelni amit mondanak, aztan majd a tenyek ugyis magukert beszelnek
Akkor magukkal viszik aztan bevetik majd kesobb valahol, vagy eladjak az arab olajmilliardosoknak akik kvarc jatekokat gyartanak majd 9$-ert GeForce neven
[ Szerkesztve ]
"A lower resolution generally means that there can be more quality per pixel."
-
VinoRosso
veterán
Na igen, mert úgy kellett volna tennem ahogy te szoktad, teljesen irreleváns dolgokról beszélni teletűzdelve szakzsargonnal, hogy lehetőleg minél kevesebb ember értse, ezzel palástolva a a másik érveit. Az érveléstechnikában a demagógia kétségkívül egy hatásos fegyver... de hogy mindeki értse azt amiről én beszélek, nézzük röviden kifejtve hogy miről van szó:
Peak performance
As password recovery (you can also call it password cracking if you're younger than 15 or password auditing if you're older than 30 but in any case it'll be the same thing) is embarrassingly parallel problem the only thing that really matters is peak performance of the computing device we're using and how good are we at programming to reach that peak performance.
magyarítás:
"Peak" teljesítmény
A jelszó visszállítás( jelszó törésnek is hívhatod, ha 15 évesnél fiatalabb vagy, illetve jelszó auditálásnak, ha 30 nál idősebb - végülis mindegy, mert ugyanaz a cucc ) egy kényszerpárhuzamos probléma, ahol az egyetlen dolog ami számít az adott eszköz a peak( maximális ) számítási kapacitása, és az, hogy mennyire volt ügyes a programozó a kódolás során abban, hogy elérje a számítási kapacitás maximumát.
Található egy link is arról, hogy mi a túró ez a kényszerpárhuzamos számítás:
Embarrassingly parallel
In parallel computing, an embarrassingly parallel workload (or embarrassingly parallel problem) is one for which little or no effort is required to separate the problem into a number of parallel tasks. This is often the case where there exists no dependency (or communication) between those parallel tasks.[1]
Embarrassingly parallel problems are ideally suited to distributed computing and are also easy to perform on server farms which do not have any of the special infrastructure used in a true supercomputer cluster. They are thus well suited to large, internet based distributed platforms such as BOINC.
A common example of an embarrassingly parallel problem lies within graphics processing units (GPUs) for tasks such as 3D projection, where each pixel on the screen may be rendered independently.Examples
Some examples of embarrassingly parallel problems include:
The Mandelbrot set and other fractal calculations, where each point can be calculated independently.
Rendering of computer graphics. In ray tracing, each pixel may be rendered independently. In computer animation, each frame may be rendered independently (see parallel rendering).
Brute force searches in cryptography. A notable real-world example is distributed.net.
BLAST searches in bioinformatics.
Large scale face recognition that involves comparing thousands of input faces with similarly large number of faces.[2]
Computer simulations comparing many independent scenarios, such as climate models.
Genetic algorithms and other evolutionary computation metaheuristics.
Ensemble calculations of numerical weather prediction.
Event simulation and reconstruction in particle physics.magyarítás:
Kényszerpárhuzamos számítás
A párhuzamos programozásban kényszerpárhuzamos terhelésnek ( vagy kényszerpárhuzamos problémának ) nevezzük azt az esetet, amikor kevés vagy egyátalán semmilyen erőfezítés nem szükséges ahhoz, hogy párhuzamos folyamatokra bontsuk le a problémát. Ez leginkább akkor fordul elő, amikor nincs túl nagy függőség ( vagy ha úgy tetszik kommunikáció ) a párhuzamosított folyamatok közt.
A kényszerpárhuzamos problémák ideálisak az elosztott számításokhoz, és jó teljesítménnyel futnak olyan szerverfarmokon, amelyeknek nem rendelkeznek olyan fejlett infrastruktúrával mint egy valódi szuperszámítógépes klaszter. Ennél fogva jól illeszkednek olyan internet alapú elsoztott platformokhoz mint a BOINC.Jellemző példa a kényszerpárhuzamosság kihasználására a GPU-k által végzett feladatok mint a 3 dimenziós vezítés, amikor is minden képernyőpontot egymástől függetlenül lehet renderelni a képenyőre.Példák:
-Mandelbrot halmaz pontjainak a kisszámítása, ahol minden pont a függetlenül számolható.
-Számítógéps grafikai rendelrelés. Ray tracingben minden egyes pixel renderelése a többitől független.
- Brute force jelszótörés
- BLAST alapú keresések a biinformatikában
- Széles skálájú arcfelismerés, ahol több ezer arcot kell összehasonlítani
- Számítógépes szimulációk több független forgatókönyvvel, mint például a klímamodellek
- Genetikus algoritmusok és más evolúciós programozási metaheurisztikák
- numerikus időjárás előrejelzés
- esemény szimuláció és modellezés a részecske fizikában
Ami alá van húzva, azt remélem mindenki érti, ezt kell összevetni azzal, amit Abu írt:
"És ennek játéknál van jelentősége?"
Na, hogy is van az a dolog a bullshittel, kedves Abu ?
-
VinoRosso
veterán
Nézd már meg, hogy mire írtam:[link]
Erre jött ezLátható hogy nem én jöttem elő a linkkel nagy mellénnyel hanem te, persze igazán trükkössen kiollózva egy bizonyos részt belőle. Én csak kiegészítettem amit írtál, hogy teljes képet kapjanak az emberek, ne pedig hazugságot. Ha azt mondod, nem releváns a cikk a grafikára nézve, azzal a saját legelső linkedet vágod agyon. Ha nem releváns akkor mire jött az idézeted? Ehhh emberrr...
-
Hagyjuk már ezt a magméret, meg egyéb hülyeségeket. Az emberek tesznek rá, hogy mekkora a magmérete a vga-juk központi egységének.
Itt meg lehet említeni, mert ez egy szakmai fórum, és a dolog érdekes része, de ezen lovagolni állandóan, már marha unalmas.
Eleve minek egy 65 nanos gpu-hoz mérni egy 55-nanost? Kiszámoltad már, hogy mekkora lenne az rv870 65nm-en? Vagy a g200 40 nanon? Ha tudtak volna egy ilyen chipet gyártani már azidőben az AMD-nél, elég szép méret jött volna ki. Viszont nem tudtak, és ha tudtak is volna akkor sem a mérete érdekelt volna, hanem az, hogy működik.
Most AMD megalkotott egy jó vga-t, több, mint 2 milliárd tranzisztorral, ami 15-30%-al gyorsabb, mint a gtx 285, így most pár hónapig az övék lehet a leggyorsabb vga. Ennyi, nem kell ezt túlmisztifikálni.
szerk:
Teszem hozzá, én ekkora nagy előhisztéria után sokkal jobbra számítottam, így most ez az 5870-es kártya csalódás számomra. Az árak lenyomására nem alkalmas, és nem is hiszem, hogy túl nagy falat lenne az nv számára.
[ Szerkesztve ]
-
200-as chipet írtál, nem 200b-t. A 470mm^˘2 az utóbbi felülete. A gt200 nagyobb volt.
A méretkülönbség abból adódik, hogy más a technológia. Mostmár az AMD is több tranzisztort használ, írd ide le, hogy mekkora lenne az rv870 65nm-en. Meglepő, de jóval nagyobb, mint a gt200 első változata. Másrészt az rv790 cirka 30mm^2 nagyobb, mint a 770-es kisöcsi.
Az 5870-es teszteket nézve, kétlem, hogy az 5850-es minden esetben gyorsabb lenne a gtx285-nél, hisz az 5870-sem tudta minden esetben legyűrni.
-
-
Igen, és rv870 sem.
Legutóbb egyébként GT300-ként emlegették. Pontosabban GT300-ként ismertként.
Magasrol teszek rá, hány épít rá. Nekem az a lényeg, hogy amivel játszok jól menjen. Egyébként érdekes, hogy a 4890 mindíg a gtx 275 után végez.
Úgy látszik akkora szám jön ki arra a bizonyos magméretre, hogy vagy nem fér el a számológép kijelzőjén, vagy a memóriájában, ezért nem tudod ide átpötyögni.
Nincs abban semmi, hogy az AMD is monolitikus chipet gyártana, csak az alacsonyabb csíkszélleség miatt nem látszik.
-
Nem gondolok én semmi ilyet. Nem kell a gpu teljesítményét befolyásolni, elég a teszteket jól kiválogatni.
Most elárultad magad, direkt azt közlitek, amire az olvasók kiváncsiak, amit kapni akar a többség.
Persze, meghúzta a vonalat. Így is lehet mondani az ennyire futotta formulát.
-
tlac
nagyúr
akkor, hogy értsem is:
az ok, hogy a hd4-es sorozatban van egy kicsit butább tesszelátor, mint a hd5-ben
a hd4-hez is van egy külön api, amivel lehetne használni
az AVP csak dx11-ből használja a tesszelátort, ami hd5-ön biztosan megy
viszont az ati meg mocsok és nem írja meg a drivert, hogy dx11-ből is el lehessen érni a hd4-es tesszelátort?[ Szerkesztve ]
-
Med1on
aktív tag
"Például a Stormrise-t ezért dobtuk ki, mert nem jó játék, bár a motorja a legmodernebb."
Technikai szempontból nyilván sok mindennel alá lehetne támasztani ezt. A felhasználók szemszögéből a 2 legérdekesebb dolgot emelném ki.
1. gépigény:
Nem mondható alacsonyak. Gbors eredményeit véve: Stormrise - high settings 4xAA 1680x1050 alatt egy HD 4890 is "csak" 47fps-t tol. Erre azért nem lehet azt mondani, hogy a motor erőssége a kis gépigény lenne. (mondjuk ha ezt a 47fps-t egy HD 4830, 3870 körüli kártyán érné el az megint más megvilágításba helyezné a dolgokat)2.grafika:
idézet Pcdome tesztjéből:
"Amikor azt hallottam, hogy a játék csak DirectX 10-zel, Vista operációs rendszer alatt megy, arra számítottam, hogy a látvány valami lélegzetelállítóan gyönyörű lesz, amit DX9-es kártyával lehetetlen lenne előállítani, de ebben is csalódnom kellett."Tényleg nem fest túl jól. Tom clancy's end war-hoz mérten bűnronda egyébként szódával elmegy de ha hozzávesszük, hogy itt már a DirectX 10.1 dübörög hát.
Összefoglalva tehát ez a legmodernebb motor se nem gyors se nem szép ráadásul DX9 nincs benne így rengetek felhasználó el se tudja indítani. Köszönöm én az ilyen modern grafikus motort...
[ Szerkesztve ]
A semmi az a valami, ami azáltal van, hogy nincs.
-
-
tlac
nagyúr
-
Chalez
őstag
Amikor 'mittoménmilyen fényel meg volt világítva egy lény, meg a többi hadd ne soroljam jelenet, helyiség, akármi...
Akkor volt hogy lecsökkent az fps 60-ról 59-58-ra, és felment 61-62-re... Na ekkor röcögött. És ez nekem elég volt...
De ezt mindig megcsinálta, kipróbáltam 1000 féle beállítást, akkor is. Vagy pl Guitar Hero - WT, amikor jönnek a kis színes gombok. Néha röcög! Megengedhetetlen!Bici: 60 FPS-el folyik a grafika vsync on. De ha csak 1-2-t is eltér a számláló, akkor már látványosan röcög. Nem kéne így lennie szvsz...de már off tényleg.
[ Szerkesztve ]
-
Ugye nem gondolod, hogy az AMD eddig emberbaráti szeretetből adta olcsón a kártyáit?
Egyszerűen nem volt más választása, ha tartani szerette volna 30-% körüli részesedést.
Ha szép grafikát akarok, akkor most vegyek egy olyan kártyát ami ugyan tud dx11-et, de ma még se win7, se dx11-es játék nincs a boltokban.
Én inkább úgy látom, hogy aki ma a legerősebb egymagost szeretné, és villogni akar a hardverével, az vegyen 5870-es vga-t. Teszem hozzá pont úgy, és annyi értelemmel, mint anno 8800GTX-et.
A nem presztis felhasználók még semmi esetre sem vesznek új radeont, mert a mai napon, de még holnap se, nincs semmi értelme. E
-
Med1on
aktív tag
-
Mitől nem létezik? Azért mert a cégnél van egy kódneve? A nem létezik, és a van más neve is, nem ugyan azt jelenti. Tök mindegy mi a neve, a lényeg, hogy van/készűl/lesz. Mégha valamilyen érthetetlen oknál fogv nehéz is ezt elfogadnod.
Érdekes, hogy a hülyeségekre milyen jól tudsz reagálni, másra pedig nem.
-
kriszbon
őstag
Majd jó nagyot néztek ha az NV felmérgeli magát és átnevezi GT300-ra
Mindörökké az első tökösebb gépem 4S akkuval: https://www.youtube.com/watch?v=ryVAamO5QpI (a többit már magam építettem kicsit jobbra) Netuddki, valahol a térben és időben! Vazze eltévedtem! Valaki?? Segitsééééééég!!
-
Tekerheted, csavarhatod, ebből jól nem jössz ki. Elárulom Neked, a Fremi a GT300 köznyelven. Amíg senki nem tudja, hogy nevezik, valahogy csak hívni kell, hülyén hangzana, hogy "az izé, amit az nv fejleszt".
Ahhoz képest, hogy egyik sem létezik, Te nevezted így mindkét lapkát. Persze ezzel nincs is baj, hogy RV870-nek, és GT300-nak nevezted őket, nem Cypressnek, nem Freminek, mert így volt közérthető, hogy miről is van szó.
-
Dehogynem próbálod kimagyarázni. Viszont engem nem zavar, mert már így ismertelek meg.
Talán azért támadtak, mert nem azt írtad, hogy a chip, amit várnak az nv hívők mégsem a gt300 nevet fogja kapni, hanem átnevezték és egy új névvel látták el. E helyett azt írtad, hogy a gt 300 nem létezik, soha nem is létezett, hanem helyette egy fremi nevű chipet fejlesztenek teljesen más célra. És valószínű az nv kivonul, vagy éhenhal, vagy totálisan megsemmisül.
Az irományaid alapján, Téged sem hívnálak jósolni, pláne nem lotto számokat, mert soha nem gazdagodok meg. Gyakorlatilag semmi nem jött be belőle. Bár ehhez is tehetség kell.
[ Szerkesztve ]
-
Dehogynem, nézd csak át a hozzászólásaidat.
A lényege, valami olyasmi, hogy a gt300 csak kitaláció, és e helyett, egy professzionális gpgpu-n dolgoznak, amit majd később kiadnak desktopra is.
Mondjuk az más kérdés, hogy az nv gpu-k mindkét téren jól használhatók. Ellenben én annyira nem vagyok meggyőzve erről, és inkább a procit használom. Lehet alaptalan, de olyasmit olvastam, hogy a gpu ugyan gyors, de nem biztos, hogy olyan minőségű lesz a végeredmény, mintha procival csinálná az ember, mert más az eljárás lényege.
Hál istennek, mióta vannak a jó négy magos denebek kibírom, azt a 7-14 percet míg elkészűl egy film.
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az NVIDIA éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
- Külföldi rendelések: boltok, fizetés, postázás
- Konzolokról KULTURÁLT módon
- Vezeték nélküli fejhallgatók
- Gaming notebook topik
- Kínai, és egyéb olcsó órák topikja
- Kerékpárosok, bringások ide!
- The Last of Us: Part II - Kész lenne már a PC-s kiadás?
- Parfüm topik
- BestBuy topik
- Óra topik
- További aktív témák...
Állásajánlatok
Cég: Alpha Laptopszerviz Kft.
Város: Pécs
Cég: Ozeki Kft.
Város: Debrecen