- Ilyen lehet a Samsung Galaxy Watch7 Ultra
- Fotók, videók mobillal
- Nothing Phone 2a - semmi nem drága
- Nokia 3210 - felélni az örökséget
- Samsung Galaxy A55 - új év, régi stratégia
- Apple iPhone 15 Pro Max - Attack on Titan
- OnePlus 7 - magabiztos folytatás
- Xiaomi 14 - párátlanul jó lehetne
- Apple iPhone 15 - a bevált módszer
- Garmin Instinct – küldetés teljesítve
Hirdetés
-
47,5 milliárd dollárt költ chipekre Kína, várja a Samsungot is
it Kína egy 47,5 milliárd dolláros alappal pörgetné fel a saját félvezetőszektorát, a miniszterelnök pedig további befektetésekre bátorítja a Samsungot.
-
Három új színben lesz választható a Nothing Phone (2a)
ma A múlt héten még csak jelezték, hogy színvariáció(k) várhatók, a legfrissebb előzetes viszont már informatívabb.
-
Retro Kocka Kuckó 2024
lo Megint eltelt egy esztendő, ezért mögyünk retrokockulni Vásárhelyre! Gyere velünk gyereknapon!
-
Mobilarena
A legtöbb kérdésre (igen, talán arra is amit éppen feltenni készülsz) már jó eséllyel megtalálható a válasz valahol a topikban. Mielőtt írnál, lapozz vagy tekerj kicsit visszább, és/vagy használd bátran a keresőt a kérdésed kulcsszavaival!
Új hozzászólás Aktív témák
-
arn
félisten
Nem... Ezert mondom, hogy ez a normal gpu + koproci kombo miatt lesz. Tehat mittomen lesz egy 250w a normal kartya resze + 100w a kiegeszito koprocis resze. Az is erdekes lesz hogy ez utobbi csak 3090be kerul, vagy lejjebb is, ha lejjebb, akkor hogy skalazzak, stb.
En inkabb azt tippelnem, hogy a normal kartyak a mostanihoz hasonlo felepitesuek lesznek hasonlo arban, es csak az extremebb kartyak kapjak a koprocit meg amolyan technologiai fellepcsokent, a kov generacio meg chipletes design lesz, ahol ezt egyszerubben implementaljak.
[ Szerkesztve ]
facebook.com/mylittleretrocomputerworld | youtube.com/mylittleretrocomputerworld | instagram.com/mylittleretrocomputerworld
-
Abu85
HÁZIGAZDA
Erre a problémára már rég kitalálták a skálázást. Van egy kerete a GPU-nak, amit megkaphat. Ha valamiért nem kapja meg. Például valami másnak kell az energia, akkor a GPU-ban annyi történik, hogy x-200 MHz lesz az órajel, és működik tovább. De ha az a valami más nem működik, akkor mehet az x órajel, és felveheti ugyanazt az energiát. Ennek a megoldásnak az az előnye, hogy nem veszik el a teljesítmény.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
félisten
-
[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Pipó
őstag
"De az A100 tele van egy rakás, játék szempontjából teljesen hasztalan részegységgel. A Navi 21 általánosabban van tervezve."
Hogy ez így legyen, ki kellett volna cserélni az AMD mérnökeit az Nvidiáéval.
Nem hiszem, hogy az NV mérnökei egyik éjjel ugyanazt álmodták mind és úgy mentek be a melóhelyre, hogy ugyan szar ez az AMD, mert telenyomta minden fölösleges dologgal a gaming kártyáit, de mi volna, ha mi is azt csinálnánk.
"Vannak győzelmek, amiktől jobban alszik az ember. És olyanok is, amik ébren tartanak." Broadchurch - Kis fekete szir-szar rózsaszín biszbasszal a tetején? - Az is vaaan!
-
gainwardgs
addikt
Pci-e 3.0 vs 4.0 skálázódás [link]
Már most látszik hogy előnyben a 4.0.
Új kártyákkal még durvább különbség lesz szerintem -
GeryFlash
veterán
Mert az A100 egy gaming kártya.
Hi, i'm new to APHEX TWIN, so i was wondering how much the IQ requirements was to enjoy his stuff. and understand all the underlying themes, because its really complex stuff. I have IQ of 119 but i heard that you need atleast 120 is it true?
-
Abu85
HÁZIGAZDA
Nézd meg az A100-at: [link] - ebből a játékokban alapvetően tudod hasznosítani az Int32 és az FP32 feldolgozókat. Az FP64 feldolgozók technikailag elérhetők a szabványos API-kból, de nagyon nem ajánlottak, mert nincs sok hasznuk, ezért is veszik ki a gaming hardverekből, míg a tensor magok esetében a szabványos DirectML a fejlesztők számára metaparancsokig ad hozzáférést. Ennek a hsz-nek a végén leírtam, hogy ez miért baj. [link] - a metaparancsok esetében követelmény, hogy le tudjanak futni az általános feldolgozókon is, ez garantálja ugye az API oldalán a nagymértékű kompatibilitást, így viszont egy fejlesztő nem tudja befolyásolni, hogy egy metaparancs speciális vagy általános feldolgozón fusson le. Sokszor alapvetően a meghajtóimplementáció sem tudja garantálni a speciális részegység befogását. Egy normális API-n ennek úgy kellene működnie, hogy a fejlesztő kijelölhetné a célzott feldolgozót, de a DirectML elképesztően hülyebiztosra lett tervezve.
Szóval az A100 ellő egy csomó tranzisztort egy rakás olyan dologra, ami játékokban tök hasztalan. Ezek jó része a gaming GPU-kból ki is lesz véve.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Pipó
őstag
-
KillerKollar
senior tag
válasz gainwardgs #28855 üzenetére
10:01-nél a legérdekesebb... Én, meg szerintem sokan másik is azt hitték, hogy a PCIe bottleneck úgy működik, hogy van egy felső plafon, ha azt eléri egy kártya, akkor ennyi, nincs tovább. Tehát ha pl a 2080-ast bottleneckeli a 3.0 x8, akkor hiába cseréled le egy 2080 Ti-re, nem fog nőni a teljesítmény. CPU bottleneck esetében így működik, persze a CPU sem folyamatosan bottleneck, ezért valamennyivel nő a teljesítmény egy erősebb GPU esetén (hacsak nem draszikus a bottleneck), de közel sem annyival mint ha nincs bottleneck.
Viszont ebben a tesztben az látszik, hogy még a tesztelt kártyák közül leggyengébb 1660 Super is 2,4%-al lassabb 3.0 x8-al mint x16-al. Ebből nekem az következne, hogy a nála kb 2x gyorsabb 2080 Ti-nél brutális bottlenecknek kell lennie. De nem. A 2080 Ti is "csak" 7,8%-al lassabb Wolfenstein alatt. Ami még érdekesebb, hogy a 1660 Supernél erősebb 2060 is csak 2.5% teljesítményt veszít, ami majdnem ugyanannyi mint a 1660 Super 2.4%-a, bőven hibahatáron belül van. Illetve a 2070 Super 6.15% teljesítményt veszít x8-al, a nála erősebb 2080 viszont csak 5.8%-ot. Szintén hibahatáron belül van, de akkor is érdekes, hogy az erősebb kártya jobb esetben is ugyan annyi teljesítményt veszít, mint a gyengébb. És annak ellenére, hogy az összes kártyánál van "bottleneck" a teljesítmény szépen skálázódik x8-al is egészen a 2080 Ti-ig. Még a minimum framerate is.
Emiatt nekem még inkább zavaros, hogy a next-gen kártyáknél mennyire számít majd a 4.0, hiszen a 2080 Ti 7,8% és a 1660 super 2,4% teljesítmény vesztesége között azért nincs akkora drasztikus különbség ahhoz képest, hogy a 2080 Ti egy kétszer olyan gyors kártya. Tehát ha a 3090 50%-al gyorsabb a 2080 Ti-nál, amit nem bottleneckel a 3.0 x16, hiszen 3.0 x16-ot használ, akkor egyáltalán nem biztos, hogy a bottleneck olyan súlyos lesz, mint azt elsőre gondolná az ember. Ha lesz egyáltalán. És emiatt az sem jelent sokat, hogy az 5700XT néhány cím alatt gyorsabb 4.0-val. Hiszen a 1660 Super is gyorsabb 3.0 x16-al mint x8-al.
-
gainwardgs
addikt
válasz KillerKollar #28859 üzenetére
Addigra intelnél is lesz 4.0, ja nem
-
KillerKollar
senior tag
válasz gainwardgs #28860 üzenetére
Meddigre? Rocket Lake lesz az első generáció, az Q1 2021. A next-gen RTX 4000-es és RDNA 3 kártyáknál már tuti bottleneck lesz a 3.0, de addigra ez nem lesz annyira releváns, hiszen addigra már valószínűleg lesz Alder Lake is, szóval már az Intel is 2 generáció óta támogatni fogja a 4.0-át, az AMD pedig 3.
Ez csak most különösen helyzet, hiszen az Intel még mindig valamennyivel gyorsabb játékok alatt és bár túl vannak árazva, aki hajlandó megvenni egy 1400$-os 3090-et, azt ez nem igazán érdekli, neki a leggyorsabb kell, ezért megvette az i9 10900K-t, hogy az majd jó lesz a 3090 mellé. Ha pedig bottleneck lesz a 3.0 akkor jön majd a pofára esés. Jelenleg ez a kérdés még nagyon sok embert érint, még az AMD oldalon is, hiszen sokan használnak Zen 2-es procit B450/X470 lapokban. Mire kijön az ez utáni generáció 2 év múlva, addigra már nem lesz ilyen fontos kérdés, hiszen aki felső kategóriás grafikus kártyát vesz, attól jogosan várható el, hogy 1-2 generációnál ne legyen régebbi a procija, ha pedig az, ne csodálkozzon ha bottleneck lesz. Most viszont a jelenleg játékok alatt leggyorsabb CPU nem tudja a 4.0-át, egy i9 10900K tulajnak nem mondhatod, hogy túl elavult a procija (igen, igen, tudom a Skylake már elavult, de ez a vásárlót nem érdekli, csak az, hogy most jött ki, drága volt és a tesztek alatt ez hozta a legtöbb fps-t).
-
Alogonomus
őstag
válasz KillerKollar #28859 üzenetére
"Emiatt nekem még inkább zavaros, hogy a next-gen kártyáknál mennyire számít majd a 4.0"
Az újabb címeknél jött ki jobban a különbség, és Steve is arra utal, hogy a közeljövő játékaiban fognak inkább előjönni a különbségek.
Régebbi játékok motorjainak fejlesztésekor valószínűleg még csak a 3.0 x8-at feltételezték a felhasználók gépeiben, ezért arra is készítették fel a motort. Idei játékoknál már valószínűleg a 3.0 x16 kezd az elvárt minimum lenni, és a jövő játékmotorjai már egyre inkább a 4.0 x16-ot fogják igényelni. Régi játékok nem tudják kihasználni a 3.0 x16-ot, idei játékoknál a 3.0 x16 helyetti x8 okozhat már alacsony 1% low értékeket, és például az UE5 már esetleg eleve a 4.0 x16-on fogja elvárni az alacsony 1% low értékektől mentes egyenletes működéshez, míg egy 3.0 x8 esetleg már órási akadásokat fog okozni. -
KillerKollar
senior tag
válasz Alogonomus #28862 üzenetére
Kérdés, hogy mikorra terjednek el a next-gen motorok. A jövőre bejelentett multiplatform címek jelentős része még jön jelen generációs konzolokra is, így vélhetően azoknál még ez nem fog annyira számítani, hiszen első sorban mindig a leggyengébb láncszemre kell optimalizálni, állítólag ezért csúszik annyit a Cyberpunk 2077 is, mert a base PS4 és Xbox One küszködnek vele.
A fejlesztőknek az az érdeke, hogy a legnagyobb potenciális vásárlóbázisnak tudják eladni a játékukat, ha jól tudom a PS4 már kb ~115 millió eladott példánynál jár, tehát ahhoz, hogy már ne érje meg arra kiadni játékot még kelleni fog 1-2 év, addigra meg már lehet, hogy jönnek az RTX 4000-es kártyák is, meg az Intelnek is már lesz 2 generációnyi termékcsaládja, ami támogatja majd a 4.0-át. Ez az elkövetkezendő 1-2 évben lesz fontos kérdés, hogy mennyit buknak akik 3.0-át használnak, utána már egyre kevésbé.
-
gainwardgs
addikt
válasz KillerKollar #28861 üzenetére
Rocket-nel is nem mindegyik alaplap támogatja, mert felépítésben nincs meg minden a 4.0-hoz.
Főleg asus táján vannak gondok
Volt is erről egy cikk [link][ Szerkesztve ]
-
Abu85
HÁZIGAZDA
válasz gainwardgs #28864 üzenetére
De ugye a rakétatóhoz jönnek az 500-as chipsetek, azokkal hivatalos az Intel támogatása.
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
KillerKollar
senior tag
Szóval akik megvették az i9 10900K-t azoknak ugyanúgy le kell cserélni a procijukat ÉS az alaplapjukat is, ha szeretnének PCIe 4.0-át? NOICE... És még kérdés, hogy miért ilyen fontos téma jelenleg, hogy bottleneck lesz-e a 3.0 vagy sem... Nem mindegy, hogy "csak" új GPU-t kell vennie az embernek, vagy az új GPU mellé vehet új procit és alaplapot is...
-
nagyúr
válasz KillerKollar #28859 üzenetére
A PCIE-terhelés akár frame-ről frame-re erősen eltérő lehet. A videoban látott adatok azt mutatják, hogy néha-néha egy kicsit késleltet a busz. A kezdődőfélben lévő CPU-limit is hasonló karakterisztikával rendelkezik.
Pedro... amigo mio... ma is konzervvért iszunk! Kár lenne ezért a tehetséges gyerekért...
-
DudeHUN
senior tag
válasz KillerKollar #28863 üzenetére
Már most van pár cím, ami nem jön a PS4-One párosra. Például az új Resident Evil, vagy az NBA új ŕésze is nextgen motorral. Ez a verzió csak PS5-SeriesX lesz elérhető.
Gamer for Life
-
arn
félisten
Kisse tullihegitek a pcie jelentoseget... ami nem a memoriabol van kiszolgalva, toredek sebesseggel fog menni, teljesen mindegy, hogy 2x gyorsabb e.
912gb/s mem
31.5gb/s a pcie 4.0 16xmi a fenerol beszelunk? Utoljara ennek igazi jelentosege 1997ben volt az agps texturazasnal.
facebook.com/mylittleretrocomputerworld | youtube.com/mylittleretrocomputerworld | instagram.com/mylittleretrocomputerworld
-
sutyi^
senior tag
válasz KillerKollar #28866 üzenetére
Engedjük már el ezt a mi lesz szegény a 10900K tulajokkal akik RTX 3090-et akarnak venni téma kört please, annyira felesleges és unalmas ezen rugózni.
1. Ha telt 10900K-ra 280e Ft-ért, akkor telik 3900X/3950X-re is... vagy ZEN3-ra.
2. Ha meg nem kell AMD, akkor meg majd CPU-t cserél RKL-re 5-6 hónappal az új VGA után.
3. Nem csinál semmit, mert nem 1080p240-ben játszik vagy mert a performance loss <3-5%.-Pedig nem is én utállak téged, te utálod saját magad! - ...és mégis egész nap együtt kell lennem saját magammal.
-
MPowerPH
félisten
válasz sutyi^ #28870 üzenetére
Pluszban nem lesz keves az a PCI-E 3.0.... 8x -os sebesseggel dobaloztok, mikozben mindenki 16x -al tolja. Nem ertem, mirol beszeltek.
Jelenleg a 3950X onmagaban nagyobb veszteseget jelent a legtobb game alatt, mint az a 3-5%, foleg CPU limites szituaciokban.[ Szerkesztve ]
Don't Tread On Me
-
sutyi^
senior tag
válasz MPowerPH #28871 üzenetére
4K-ban nettó GPU limiten van minden, még egy RTX 2080 Ti-vel is. i5-9400-tól felfelé kb. mindegy mivel hajtod... <3% perf. delta vs. 10900K. 1440p-ben meg <5%. Ha csak nem valami kieső gamet / motort nézünk, ami valami okból kifolyólag sokkal jobban megy Intel-en, bár ez mostanában kevés.
Gondolom sokan a PCIe 3.0 x8 vs 3.0 x16-ból akarnak előre prognosztizálni, hiszen PCIe 4.0 x8 = PCIe 3.0 x16 sávszél.
Egyelőre nem tudjuk hogy nem célirányos teszt suitokon kívül, a jelenleg piacon lévő és közel jövőben érkező AAA címeknél lesz-e egyáltalán bármi nemű korlátozó tényezője annak hogy a legleglegnagyobb Ampere kártyát "csak" egy 3.0 x16-os slotba tudja a tulaj belegyömöszölni. Sanda gyanúm nem igazán.
Hónap végén úgyis launch (papír vagy sem?) aztán megtudjuk mi a helyzet, mert a techpress megfogja nézni amint van rá módja. Oka biztos van miért 4.0-át kér az NVIDIA és az AMD is majd, aztán hogy ez real-world használat mellett látványosan látszik-e az megint egy másik kérdés...
Szóval egyelőre teljesen felesleges ezen pörögni, főleg annak fényében hogy a felvevő piac 98%-át ez a probléma igazából várhatóan nem érinti a következő ~2 évben.
-Pedig nem is én utállak téged, te utálod saját magad! - ...és mégis egész nap együtt kell lennem saját magammal.
-
Devid_81
nagyúr
EK already working on GeForce RTX 30 water blocks
Biztos nem lesz £/$/€249 eleinte ez sem
[ Szerkesztve ]
...
-
Abu85
HÁZIGAZDA
Pont az a probléma, hogy a sebessége alacsony. Eközben a mindkét explicit API kezel host coherent és host visible memóriatípusokat, amiket pont a konzolok miatt használnak is a motorok, vagyis minél több puffer megy ilyen logikai memóriatípusba, annál több adatot kell vagy a CPU-nak (az AMD implementációja), vagy a GPU-nak (az NVIDIA implementációja) a PCI Express interfészen keresztül elérnie. Ezért láthatod azt az olyan típusú motoroknál, mint például a Decima, hogy 4K-ban igenis számít az x16-os PCI Express 4.0, mert a pufferek is 4K felbontásúak, és így már túl sok adat közlekedik azon a relatíve lassú buszon, hogy mérhető limit mutatkozzon. Az NV-nél a PCI Express 4.0 még nagyobb előny lesz, mert ők az AMD-vel ellentétben nem a procit kérik meg, hogy menjen el a VRAM-ig, hanem a GPU-t küldik a rendszermemóriáig, és jellemző, hogy a GPU-nak a host coherent és host visible memóriatípusokba helyezett adatokra többször van szüksége. Ha az AMD is így implementálják az API memóriahalmazait, akkor nekik is jobban számítanak a PCI Express 4.0, de az AMD inkább a GPU memóriájába rakja a puffereket, mert a CPU ritkábban kéri ezeket az adatokat. De a limit valamelyik részegység oldaláról mindenképpen meglesz, mert vagy a CPU adatelérését fogja limitálni a PCI Express, vagy a GPU-ét. Olyan implementáció csak integráció mellett van, ami egyiket sem limitálja, de ez csak azért van így, mert APU-nál nincs PCI Express kapcsolat.
(#28875) sutyi^: Persze, hogy van oka. Az AMD és az NVIDIA nem tudja, hogy milyen játékokkal tesztel az adott média. Javaslataik vannak, de azokat nem kötelező követni. Így viszont a platform oldalán igyekeznek most x16-os PCI Express 4.0-t ajánlani, mert azzal a legkisebbek a limitek, ha esetleg beesne a tesztbe egy olyan játék, ami magas felbontáson erősebb terhelést rak a buszra. A limitet egyik cég sem tudja megkerülni, így együtt kell élni vele, viszont minél gyorsabb a busz, annál kisebb lesz majd a limit. De amúgy a játékosok nyugodtan megvehetik PCI Express 3.0-hoz, a problémázó játékokban, magasabb felbontáson vesztenek pár százaléknyi teljesítményt, ami normál felhasználásnál belefér, tesztekben nyilván nem igazán.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
KillerKollar
senior tag
Nem tudom, hogy mennyit lehet tudni erről, de szerinted a Cyberpunk 2077 mennyire lesz PCIe sávszél igényes játék? Jön a jelenlegi generációs konzolokra is, igaz a Horizon: Zero Dawn is PS4-es cím, de ott is inkább a 3.0 x8 a bottleneck, szerintem Horizon alatt a 3.0 x16 még nem lesz az az új kártyákkal sem, maximum minimális mértékben.
-
-
Abu85
HÁZIGAZDA
válasz KillerKollar #28883 üzenetére
Ehhez ismerni kell a motor működését. Láthatod, hogy vannak hasonló minőséget biztosító motorok a Decima mellett is, amelyek viszont nem igazán érzékenyek a PCI Express-re. Ez tehát jórészt egy fejlesztői döntés.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Z10N
veterán
MSI submits GeForce RTX 3090, RTX 3080, RTX 3070 graphics cards to EEC
A total of 29 different SKUs have been submitted to EEC (as spotted by PC Gamer). That includes fourteen V388 models, eleven V389 and four V390 SKUs. Those numbers may or may not reflect the product codenames such as RTX 3070, RTX 3080, and RTX 3090 respectively.
EEC submissions have been proven to be very accurate, sometimes months ahead of the launch. However, many times we have been asked to remove SKUs from our GPU database. Those SKUs appeared on EEC but they were never released.
[ Szerkesztve ]
# sshnuke 10.2.2.2 -rootpw="Z10N0101"
-
arn
félisten
A videokartya minden adatot azon keresztul kap, igy evidens, hogy szamit a feltoltesi sebesseg vhol, de ha normalisan van megirva a motor a stabil magas fps nem azon fog mulni, ez a lenyeg. Egy harmincad, hatvanad sebessegu valamivel nem lehet ugyanazt a rendelkezesre allast elerni, mindkettovel bezuhan a sebesseg, csak egyiknel nagyonnagyon szar lesz, a masiknal meg nagyonnagyonnagyon szar - ami nagyjabol a mindegy kategoria. A konzolok memkezeleset meg nem kevernem ide az egysegesitett memoriaval, teljesen mas a szuk keresztmetszet es a megoldando problemak, mint pcn. Majd apunal lesz ennek jelentosege, de az megint nem pcie buszon kommunikal.
facebook.com/mylittleretrocomputerworld | youtube.com/mylittleretrocomputerworld | instagram.com/mylittleretrocomputerworld
-
Abu85
HÁZIGAZDA
A host visible és host coherent memóriatípus pont azért van bevezetve az új API-kba, hogy ne kelljen a PCI Express buszon minden egyes képkocka számításának elején 100-200 MB-nyi adatot lemásolni a VRAM-ból a rendszermemóriába, hanem elég legyen csak annyi adatot átpréselni a buszon és akkor, amikor implementációtól függően a CPU vagy a GPU igényli.
A közhiedelemmel ellentétben ez egy optimalizáció, amivel sebességet lehet nyerni, mert ilyen formában kevesebb adat fog közlekedni a PCI Express buszon. Szóval ez nem a PC-sekkel való durva kibaszás. Összességében ezekkel az új lehetőségekkel gyorsabb motorokat lehet írni ugyanarra a konfigurációra, az mindegy, hogy abban PCI Express 2.0, 3.0 vagy 4.0 interfész van. Ez csak annyiban számít, hogy nyilván a nagyobb sávszél előnyösebb a sebességre nézve.
[ Szerkesztve ]
Senki sem dől be a hivatalos szóvivőnek, de mindenki hisz egy meg nem nevezett forrásnak.
-
Mumee
őstag
Moore's Law is Dead azt írta, hogy "Confirming: RTX 3070 ~= RTX 2080 Ti".
-
gainwardgs
addikt
És maga a chip [link]
-
félisten
Believe it or not, just had a DM from Jensen and here's the 3090 IO
Ampere latest
21/09/2020 - FE
28/09/2020 - AIB
35% perf increase
35% across the board. 4k you're looking at more of a jump 2080Ti > 3090 2080 > 3080 etc[ Szerkesztve ]
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
-
Dyingsoul
veterán
Na ennyi hülyét is régen láttam egy rakáson, mint amennyi a twitter postra válaszolt... Az ilyen emberek felől még kőbaltával a kezünkban faragnánk a csontokat. De legalább megértettem miért tud és fog is árakat emelni az NV.
- Szakmai kérdésekre privátban nem válaszolok, mivel másoknak is hasznos lehet. Erre való a szakmai fórum! -- YT: youtube.com/dyingsoulgaming -- FB: facebook.com/DyingsoulGaming/ Stream: http://twitch.tv/dyingsoul
-
Z10N
veterán
A temahoz: First GeForce with PCIe 4.0
# sshnuke 10.2.2.2 -rootpw="Z10N0101"
-
félisten
"A számítógépek hasznavehetetlenek. Csak válaszokat tudnak adni." (Pablo Picasso) "Never underrate your Jensen." (kopite7kimi)
Új hozzászólás Aktív témák
A topikban az OFF és minden egyéb, nem a témához kapcsolódó hozzászólás gyártása TILOS!
MIELŐTT LINKELNÉL VAGY KÉRDEZNÉL, MINDIG OLVASS KICSIT VISSZA!!
A topik témája:
Az NVIDIA éppen érkező, vagy jövőbeni új grafikus processzorainak kivesézése, lehetőleg minél inkább szakmai keretek között maradva. Architektúra, esélylatolgatás, érdekességek, spekulációk, stb.
Állásajánlatok
Cég: Ozeki Kft.
Város: Debrecen
Cég: Alpha Laptopszerviz Kft.
Város: Pécs