GeForce - GeForce

GeForce
GeForce newlogo.png
RTX 3090 Founders Edition! .Jpg
GeForce RTX 3090 Founders Edition
Tillverkare Nvidia
Introducerad 1 september 1999 ;
22 år sedan
 ( 1999-09-01 )
Typ Konsument grafikkort

GeForce är ett varumärke med grafikprocessorer (GPU) som designats av Nvidia . Från och med GeForce 30 -serien har det skett sjutton iterationer av designen. De första GeForce-produkterna var diskreta GPU: er utformade för tilläggsgrafikkort, avsedda för PC-spelmarknaden med hög marginal, och senare diversifiering av produktserien täckte alla nivåer på PC-grafikmarknaden, allt från kostnadskänsliga GPU: er integrerade på moderkort , till vanliga tilläggskort. Senast har GeForce -tekniken introducerats i Nvidias sortiment av inbäddade applikationsprocessorer, avsedda för elektroniska handenheter och mobiltelefoner.

När det gäller diskreta GPU: er, som finns i tilläggsgrafikkort, är Nvidias GeForce och AMD : s Radeon GPU: er de enda kvarvarande konkurrenterna på high-end-marknaden. GeForce-grafikkort är mycket dominerande på marknaden för allmänna grafikprocessorer (GPGPU) tack vare sin egenutvecklade CUDA- arkitektur. GPGPU förväntas utöka GPU-funktionaliteten utöver den traditionella rasteriseringen av 3D-grafik, för att göra den till en högpresterande beräkningsenhet som kan utföra godtycklig programmeringskod på samma sätt som en CPU gör, men med olika styrkor (mycket parallellt utförande av enkla beräkningar ) och svagheter (sämre prestanda för komplex förgreningskod ).

Namnets ursprung

"GeForce" -namnet härstammar från en tävling som Nvidia höll i början av 1999 kallad "Name That Chip". Företaget uppmanade allmänheten att namnge efterföljaren till RIVA TNT2 -serien med grafikkort. Det mottogs över 12 000 bidrag och 7 vinnare fick ett RIVA TNT2 Ultra -grafikkort som belöning. Brian Burke, senior PR-chef på Nvidia, berättade för Maximum PC 2002 att "GeForce" ursprungligen stod för "Geometry Force" eftersom GeForce 256 var den första GPU: n för persondatorer för att beräkna transform-och-belysningsgeometrin och avlastade den funktionen från CPU .

Grafikprocessorgenerationer

Generationer tidslinje
1999 GeForce 256
2000 GeForce 2 -serien
2001 GeForce 3 -serien
2002 GeForce 4 -serien
2003 GeForce FX -serien
2004 GeForce 6 -serien
2005 GeForce 7 -serien
2006 GeForce 8 -serien
2007
2008 GeForce 9 -serien
GeForce 200 -serien
2009 GeForce 100 -serien
GeForce 300 -serien
2010 GeForce 400 -serien
GeForce 500 -serien
2011
2012 GeForce 600 -serien
2013 GeForce 700 -serien
2014 GeForce 800M -serien
GeForce 900 -serien
2015
2016 GeForce 10 -serien
2017
2018 GeForce 20 -serien
2019 GeForce 16 -serien
2020 GeForce 30 -serien

GeForce 256

GeForce 256 (NV10), som lanserades den 1 september 1999, var det första grafikchipet på konsumentnivå som levererades med hårdvarutransformering, belysning och skuggning, även om 3D-spel som använde denna funktion inte dök upp förrän senare. Initiala GeForce 256 -kort levereras med SDR SDRAM -minne, och senare kort levereras med snabbare DDR SDRAM -minne.

GeForce 2 -serien

Den första GeForce2 (NV15), som lanserades i april 2000, var ett annat högpresterande grafikkrets. Nvidia flyttade till en processor med dubbla texturer per pipeline (4x2), vilket fördubblade texturfyllningen per klocka jämfört med GeForce 256. Senare släppte Nvidia GeForce2 MX (NV11), som erbjöd prestanda liknande GeForce 256 men till en bråkdel av kostnaden . MX var ett övertygande värde inom låg-/mellanklassmarknadssegmenten och var populärt både hos OEM-PC-tillverkare och användare. GeForce 2 Ultra var den avancerade modellen i denna serie.

GeForce 3 -serien

GeForce3 (NV20) lanserades i februari 2001 och introducerade programmerbara hörn- och pixelskuggare för GeForce-familjen och för grafikacceleratorer på konsumentnivå. Den hade bra övergripande prestanda och skuggstöd, vilket gjorde den populär bland entusiaster även om den aldrig nådde mellanklasspriset. Den NV2A utvecklats för Microsoft Xbox spelkonsol är ett derivat av GeForce 3.

GeForce 4 -serien

Den då avancerade GeForce4 Ti (NV25), som lanserades i februari 2002, var mestadels en förfining till GeForce3. De största framstegen inkluderade förbättringar av anti-alias-funktioner, en förbättrad minneskontroller, en andra vertex-shader och en minskning av tillverkningsprocessens storlek för att öka klockhastigheterna. En annan medlem i GeForce 4 -familjen, budgeten GeForce4 MX, baserades på GeForce2, med tillägg av några funktioner från GeForce4 Ti. Det riktade sig till marknadens värdesegment och saknade pixelskuggare. De flesta av dessa modeller använde AGP 4 × -gränssnittet, men några började övergången till AGP 8 ×.

GeForce FX -serien

GeForce FX (NV30), som lanserades 2003, var en enorm förändring i arkitekturen jämfört med föregångarna. GPU: n var inte bara utformad för att stödja den nya Shader Model 2 -specifikationen utan också för att fungera bra på äldre titlar. Men initiala modeller som GeForce FX 5800 Ultra led av svag flytande punktskuggningsprestanda och överdriven värme som krävde ökänt bullriga tvåslitsiga kyllösningar. Produkter i denna serie har 5000 modellnummer, eftersom det är den femte generationen av GeForce, även om Nvidia marknadsförde korten som GeForce FX istället för GeForce 5 för att visa upp "gryningen för filmåtergivning".

GeForce 6 -serien

GeForce 6 (NV40), som lanserades i april 2004, lade till Shader Model 3.0 -stöd till GeForce -familjen, samtidigt som den korrigerade den svaga floating point shader -prestandan hos sin föregångare. Det implementerade också högdynamisk avbildning och introducerade SLI (Scalable Link Interface) och PureVideo- kapacitet (integrerad partiell hårdvara MPEG-2, VC-1, Windows Media Video och H.264-avkodning och fullt accelererad video efterbehandling).

GeForce 7 -serien

Den sjunde generationen GeForce (G70/NV47) lanserades i juni 2005 och var den sista Nvidia -grafikkortserien som kunde stödja AGP -bussen. Designen var en förfinad version av GeForce 6, med de stora förbättringarna som en utökad pipeline och en ökning av klockhastigheten. GeForce 7 erbjuder också nya öppenhet för öppenhet och öppenhet för multi-samplingsfunktioner (TSAA och TMAA). Dessa nya anti-aliasing-lägen aktiverades senare även för GeForce 6-serien. GeForce 7950GT innehöll den högsta prestanda GPU med ett AGP -gränssnitt i Nvidia -linjen. Denna era började övergången till PCI-Express-gränssnittet.

En 128-bitars, 8 ROP-variant av 7950 GT, kallad RSX 'Reality Synthesizer' , används som huvud-GPU i Sony PlayStation 3 .

GeForce 8 -serien

Den åttonde generationens GeForce (ursprungligen kallad G80) släpptes den 8 november 2006 och var den första GPU: n som någonsin stödde Direct3D  10. Tillverkad med en 90 nm process och byggd kring den nya Tesla mikroarkitekturen implementerade den den enhetliga shader-modellen . Till en början lanserades bara 8800GTX-modellen, medan GTS-varianten släpptes månader i produktlinjens livslängd, och det tog nästan sex månader för mellanklass- och OEM/mainstream-kort att integreras i 8-serien. Matrisen krympt till 65 nm och en översyn av G80-designen, kodnamnet G92, implementerades i 8-serien med 8800GS, 8800GT och 8800GTS-512, som släpptes första gången den 29 oktober 2007, nästan ett helt år efter den första G80 släpp.

GeForce 9 -serien och 100 -serien

Den första produkten släpptes den 21 februari 2008. Inte ens fyra månader äldre än den ursprungliga G92-versionen, alla 9-seriens design är helt enkelt en revidering av befintliga sena 8-serieprodukter. 9800GX2 använder två G92-GPU: er, som används i senare 8800-kort, i en dubbel kretskortskonfiguration medan de fortfarande bara kräver en enda PCI-Express 16x-kortplats. 9800GX2 använder två separata 256-bitars minnesbussar, en för varje GPU och dess respektive 512 MB minne, vilket motsvarar totalt 1 GB minne på kortet (även om SLI-konfigurationen av chipsen kräver att spegla rambufferten mellan de två chipsen och därmed halverar minnesprestandan för en 256-bitars/512 MB konfiguration). Den senare 9800GTX har en enda G92 GPU, 256-bitars databuss och 512 MB GDDR3-minne.

Före släppet var ingen konkret information känd förutom att tjänstemännen hävdade att nästa generations produkter hade nära 1 TFLOPS -processorkraft med GPU -kärnorna fortfarande tillverkade i 65 nm -processen och rapporter om att Nvidia bagatelliserade betydelsen av Direct3D  10.1. I mars 2009 rapporterade flera källor att Nvidia tyst hade lanserat en ny serie GeForce -produkter, nämligen GeForce 100 -serien, som består av rebadged 9 Series -delar. GeForce 100 -serien kunde inte köpas individuellt.

GeForce 200 -serien och 300 -serien

Baserat på GT200-grafikprocessorn som består av 1,4 miljarder transistorer, kodenamnet Tesla, lanserades 200-serien den 16 juni 2008. Nästa generation av GeForce-serien tar kortnamnesystemet i en ny riktning, genom att ersätta serienumret ( till exempel 8800 för kort i 8-serien) med GTX- eller GTS-suffixet (som brukade gå i slutet av kortnamn, vilket betecknade deras 'rang' bland andra liknande modeller) och sedan lägga till modellnummer som 260 och 280 efter den där. Serien har den nya GT200 -kärnan på en 65nm munstycke. De första produkterna var GeForce GTX 260 och den dyrare GeForce GTX 280. GeForce 310 släpptes den 27 november 2009, vilket är en ommärkning av GeForce 210. 300 -seriens kort är ommärkta DirectX 10.1 -kompatibla GPU: er från 200 -serien, som inte var tillgängliga för individuellt köp.

GeForce 400 -serien och 500 -serien

Den 7 april 2010 släppte Nvidia GeForce GTX 470 och GTX 480, de första korten baserade på den nya Fermi -arkitekturen, kodenamnet GF100; de var de första Nvidia -GPU: erna som använde 1 GB eller mer GDDR5 -minne. GTX 470 och GTX 480 kritiserades hårt på grund av hög strömförbrukning, höga temperaturer och mycket högt ljud som inte balanserades av prestanda som erbjuds, trots att GTX 480 var det snabbaste DirectX 11 -kortet vid introduktionen.

I november 2010 släppte Nvidia en ny flaggskepps GPU baserad på en förbättrad GF100 -arkitektur (GF110) som kallas GTX 580. Den innehöll högre prestanda, mindre strömförbrukning, värme och brus än föregående GTX 480. Denna GPU fick mycket bättre recensioner än GTX 480. Nvidia släppte senare också GTX 590, som har två GF110 -GPU: er på ett enda kort.

GeForce 600 -serien, 700 -serien och 800M -serien

Asus Nvidia GeForce GTX 650 Ti, ett PCI Express 3.0 × 16 grafikkort

I september 2010 meddelade Nvidia att efterträdaren till Fermi mikroarkitektur skulle vara Kepler mikroarkitektur , tillverkad med TSMC 28 nm tillverkningsprocessen. Tidigare hade Nvidia fått kontrakt att leverera sina GK110-kärnor i toppklass för användning i Oak Ridge National Laboratory : s "Titan" superdator , vilket ledde till brist på GK110-kärnor. Efter att AMD lanserade sin egen årliga uppdatering i början av 2012, Radeon HD 7000-serien, började Nvidia lanseringen av GeForce 600-serien i mars 2012. GK104-kärnan, ursprungligen avsedd för deras mellansegment av deras sortiment, blev flaggskeppet GTX 680. Det introducerade betydande förbättringar i prestanda, värme och energieffektivitet jämfört med Fermi-arkitekturen och passade nära AMDs flaggskepp Radeon HD 7970. Det följdes snabbt av dual-GK104 GTX 690 och GTX 670, som endast innehöll något snitt -ned GK104 -kärnan och var mycket nära prestandan till GTX 680.

Med GTX Titan släppte Nvidia också GPU Boost 2.0, vilket skulle tillåta GPU-klockhastigheten att öka på obestämd tid tills en användarinställd temperaturgräns uppnåddes utan att passera en användarspecifik högsta fläkthastighet. Den sista versionen av GeForce 600 -serien var GTX 650 Ti BOOST baserad på GK106 -kärnan, som svar på AMDs Radeon HD 7790 -version. I slutet av maj 2013 tillkännagav Nvidia 700-serien, som fortfarande var baserad på Kepler-arkitekturen, men den hade ett GK110-baserat kort högst upp i sortimentet. GTX 780 var en något nedskärd Titan som uppnådde nästan samma prestanda för två tredjedelar av priset. Den innehöll samma avancerade referenskylarkonstruktion, men hade inte de olåsta dubbelprecisionskärnorna och var utrustad med 3 GB minne.

Samtidigt tillkännagav Nvidia ShadowPlay , en skärmbildslösning som använde en integrerad H.264 -kodare inbyggd i Kepler -arkitekturen som Nvidia inte hade avslöjat tidigare. Det kan användas för att spela in spel utan ett fångstkort, och med försumbar prestandaförlust jämfört med mjukvaruinspelningslösningar, och var tillgängligt även på den tidigare generationens GeForce 600 -kort. Programvarans beta för ShadowPlay upplevde dock flera förseningar och skulle inte släppas förrän i slutet av oktober 2013. En vecka efter lanseringen av GTX 780 tillkännagav Nvidia att GTX 770 skulle vara en ommärkning av GTX 680. Det följdes av GTX 760 strax efter, som också baserades på GK104 -kärnan och liknande GTX 660 Ti. Inga fler 700 seriekort sattes ut för 2013, även om Nvidia tillkännagav G-Sync, en annan funktion i Kepler-arkitekturen som Nvidia hade lämnat omnämnt, vilket gjorde det möjligt för GPU: n att dynamiskt styra uppdateringsfrekvensen för G-Sync-kompatibla skärmar som skulle släpps 2014 för att bekämpa rivning och judder. Men i oktober släppte AMD R9 290X, som kom in på $ 100 mindre än GTX 780. Som svar sänkte Nvidia priset på GTX 780 med $ 150 och släppte GTX 780 Ti, som innehöll en hel 2880-kärnig GK110 kärnan ännu kraftfullare än GTX Titan, tillsammans med förbättringar av kraftleveranssystemet som förbättrade överklockningen och lyckades dra fram AMDs nya version.

GeForce 800M-serien består av nya märken i 700M-serien baserade på Kepler-arkitekturen och några nedre delar baserade på den nyare Maxwell-arkitekturen.

GeForce 900 -serien

I mars 2013 meddelade Nvidia att efterträdaren till Kepler skulle vara Maxwell -mikroarkitekturen . Den släpptes i september 2014. Detta var den sista GeForce-serien som stöder analog videoutgång via DVI-I.

GeForce 10 -serien

I mars 2014 meddelade Nvidia att efterträdaren till Maxwell skulle vara Pascals mikroarkitektur ; tillkännagavs den 6 maj 2016 och släpptes den 27 maj 2016. Arkitektoniska förbättringar inkluderar följande:

  • I Pascal består en SM (strömmande multiprocessor) av 128 CUDA -kärnor. Kepler packade 192, Fermi 32 och Tesla bara 8 CUDA -kärnor i en SM; GP100 SM är uppdelad i två processblock, var och en med 32 enkla CUDA-kärnor, en instruktionsbuffert, en varpschemaläggare, 2 texturmappningsenheter och 2 avsändningsenheter.
  • GDDR5X  - Ny minnesstandard som stöder datahastigheter på 10 Gbit/s och en uppdaterad minneskontroller. Endast Nvidia Titan X (och Titan Xp), GTX 1080, GTX 1080 Ti och GTX 1060 (6 GB version) stöder GDDR5X. GTX 1070 Ti, GTX 1070, GTX 1060 (3 GB version), GTX 1050 Ti och GTX 1050 använder GDDR5.
  • Unified memory - En minnesarkitektur där CPU och GPU kan komma åt både huvudsystemminne och minne på grafikkortet med hjälp av en teknik som kallas "Page Migration Engine".
  • NVLink-  En buss med hög bandbredd mellan CPU och GPU och mellan flera GPU: er. Tillåter mycket högre överföringshastigheter än de som kan uppnås med PCI Express; beräknas ge mellan 80 och 200 GB/s.
  • 16-bitars ( FP16 ) floating-point-operationer kan utföras med dubbelt så hög hastighet som 32-bitars floating-point-operationer ("enkel precision") och 64-bitars floating-point-operationer ("dubbel precision") som utförs med halva hastigheten 32-bitars flytande punktoperationer (Maxwell 1/32 hastighet).

GeForce 20 -serien och 16 -serien

I augusti 2018 meddelade Nvidia GeForce -efterträdaren till Pascal. Det nya mikroarkitekturnamnet avslöjades som " Turing " på Siggraph 2018 -konferensen. Denna nya GPU mikroarkitektur syftar till att påskynda realtid ray tracing stöd och AI Inferencing. Den har en ny Ray Tracing -enhet (RT Core) som kan ägna processorer åt strålspårning i hårdvara. Den stöder DXR -tillägget i Microsoft DirectX 12. Nvidia hävdar att den nya arkitekturen är upp till 6 gånger snabbare än den äldre Pascal -arkitekturen. En helt ny Tensor-kärndesign sedan Volta introducerar AI-inlärningsacceleration, vilket möjliggör användning av DLSS ( Deep Learning Super Sampling ), en ny form av anti-aliasing som använder AI för att ge skarpare bilder med mindre påverkan på prestanda. Det ändrar också sin heltalsexekveringsenhet som kan exekvera parallellt med den flytande datavägen. En ny enhetlig cachearkitektur som fördubblar bandbredden jämfört med tidigare generationer tillkännagavs också.

De nya GPU: erna avslöjades som Quadro RTX 8000, Quadro RTX 6000 och Quadro RTX 5000. Den avancerade Quadro RTX 8000 har 4 608 CUDA -kärnor och 576 Tensor -kärnor med 48 GB VRAM. Senare under Gamescom -presskonferensen presenterade Nvidias vd Jensen Huang den nya GeForce RTX -serien med RTX 2080 Ti, 2080 och 2070 som kommer att använda Turing -arkitekturen. De första Turing -korten skulle skickas till konsumenterna den 20 september 2018. Nvidia tillkännagav RTX 2060 den 6 januari 2019 på CES 2019.

Den 2 juli 2019 tillkännagav Nvidia GeForce RTX Super-kortserien, en uppdatering i 20-serien som innehåller versioner av högre specifikationer av RTX 2060, 2070 och 2080. RTX 2070 och 2080 avbröts.

I februari 2019 tillkännagav Nvidia GeForce 16 -serien . Den är baserad på samma Turing -arkitektur som används i GeForce 20 -serien, men utelämnar Tensor ( AI ) och RT ( ray tracing ) kärnor som är unika för den senare till förmån för att tillhandahålla en billigare grafiklösning för spelare samtidigt som de uppnår högre prestanda jämfört med respektive kort från de tidigare GeForce -generationerna.

Precis som RTX Super-uppdateringen tillkännagav Nvidia den 29 oktober 2019 GTX 1650 Super- och 1660 Super-korten, som ersatte deras icke-Super-motsvarigheter.

GeForce 30 -serien

Nvidia tillkännagav officiellt vid GeForce Special Event att efterföljaren till GeForce 20 -serien blir 30 -serien. GeForce Special Event introducerades ägde rum den 1 september 2020 och fastställde den 17 september som det officiella släppdatumet för 3080 GPU, 24 september som släppdatum för 3090 GPU och oktober för 3070 GPU.

Varianter

Mobila GPU: er

GeForce -chip integrerat på ett bärbart moderkort.

Sedan GeForce 2 -serien har Nvidia producerat ett antal grafikkretsar för bärbara datorer under märket GeForce Go . De flesta funktioner som finns i skrivbordsmotparna finns i de mobila. Dessa GPU: er är i allmänhet optimerade för lägre strömförbrukning och mindre värmeeffekt för att kunna användas i bärbara datorer och små stationära datorer.

Från och med GeForce 8 -serien avbröts varumärket GeForce Go och de mobila GPU: erna integrerades med huvudlinjen av GeForce GPU: er, men deras namn har ett M -nummer . Detta slutade 2016 med lanseringen av den bärbara GeForce 10 -serien - Nvidia släppte M -suffixet och valde att ena varumärket mellan sina stationära och bärbara GPU -erbjudanden, eftersom bärbara Pascal -GPU: er är nästan lika kraftfulla som sina stationära motsvarigheter (något Nvidia testade med deras "stationära" bärbara GTX 980 GPU redan 2015).

Den GeForce MX varumärket, som tidigare använts av Nvidia för sina nybörjar stationära grafikprocessorer, återupplivades 2017 med lanseringen av GeForce MX150 för bärbara datorer. MX150 är baserad på samma Pascal GP108 GPU som användes på skrivbordet GT 1030 och släpptes tyst i juni 2017.

Små GPU: er med formfaktor

I likhet med de mobila GPU: erna släppte Nvidia också några GPU: er i "liten formfaktor" -format, för användning i allt-i-ett-datorer. Dessa GPU: er har ett S , som liknar M som används för mobila produkter.

Integrerade stationära grafikkort för moderkort

Från och med nForce 4 började Nvidia inkludera inbyggda grafiklösningar i sina moderkortchipset. Dessa inbyggda grafiklösningar kallades mGPU: er (moderkort -GPU: er). Nvidia avbröt nForce -sortimentet, inklusive dessa mGPU: er, 2009.

Efter att nForce-sortimentet avbröts, släppte Nvidia sin Ion- linje 2009, som bestod av en Intel Atom- CPU tillsammans med en low-end GeForce 9-serie GPU, fixerad på moderkortet. Nvidia släppte en uppgraderad Ion 2 2010, den här gången som innehåller en avancerad GPU i GeForce 300-serien.

Nomenklatur

Från GeForce 4 -serien till GeForce 9 -serien används namnskemat nedan.

Kategori
av grafikkort
antalet
intervall
Ändelse Prisklass
( USD )
Shader
belopp
Minne Exempel på produkter
Typ Bussbredd Storlek
Nybörjarnivå 000–550 SE, LE, inget suffix, GS, GT, Ultra <$ 100 <25% DDR , DDR2 25–50% ~ 25% GeForce 9400GT, GeForce 9500GT
Mellanklass 600–750 VE, LE, XT, inget suffix, GS, GSO, GT, GTS, Ultra 100–175 dollar 25–50% DDR2, GDDR3 50–75% 50–75% GeForce 9600GT, GeForce 9600GSO
High-end 800–950 VE, LE, ZT, XT, inget suffix, GS, GSO, GT, GTO,
GTS, GTX, GTX+, Ultra, Ultra Extreme, GX2
> $ 175 50–100% GDDR3 75–100% 50–100% GeForce 9800GT, GeForce 9800GTX

Sedan lanseringen av GeForce 100 -serien GPU: er har Nvidia ändrat sitt produktnamnschema till nedan.

Kategori
av grafikkort
Prefix Nummerintervall
(två sista siffrorna)
Prisklass
( USD )
Shader
belopp
Minne Exempel på produkter
Typ Bussbredd Storlek
Nybörjarnivå inget prefix, G, GT 00–45 <$ 100 <25% DDR2, GDDR3, GDDR5 , DDR4 25–50% ~ 25% GeForce GT 430, GeForce GT 730, GeForce GT 1030
Mellanklass GTS, GTX, RTX 50–65 100–300 dollar 25–50% GDDR3, GDDR5 (X), GDDR6 50–75% 50–100% GeForce GTX 760, GeForce GTX 960, GeForce GTX 1060 (6 GB)
High-end GTX, RTX 70–95 > $ 300 50–100% GDDR5, GDDR5X, GDDR6, GDDR6X 75–100% 75–100% GeForce GTX 980 Ti, GeForce GTX 1080 Ti, GeForce RTX 2080 Ti

Grafiska enhetsdrivrutiner

Proprietär

Nvidia utvecklar och publicerar GeForce-drivrutiner för Windows 10 x86 / x86-64 och senare, Linux x86/x86-64/ ARMv7-A , OS X 10.5 och senare, Solaris x86/x86-64 och FreeBSD x86/x86-64. En aktuell version kan laddas ner från Nvidia och de flesta Linux -distributioner innehåller den i sina egna förråd. Nvidia GeForce -drivrutin 340.24 från den 8 juli 2014 stöder EGL -gränssnittet som möjliggör stöd för Wayland tillsammans med den här drivrutinen. Detta kan vara annorlunda för varumärket Nvidia Quadro , som är baserat på identisk hårdvara men har OpenGL-certifierade grafikdrivrutiner.

Grundläggande stöd för DRM-lägesinställningsgränssnittet i form av en ny kärnmodul med namnet nvidia-modeset.kohar varit tillgängligt sedan version 358.09 beta. Stödet Nvidias bildskärmskontroller på de grafikkort som stöds är centraliserat nvidia-modeset.ko. Traditionella displayinteraktioner (X11-modset, OpenGL SwapBuffers, VDPAU-presentation, SLI, stereo, ramlås, G-Sync , etc.) initieras från de olika drivrutinkomponenterna i användarläget och flödar till nvidia-modeset.ko.

Samma dag som Vulkan -grafik -API: et publicerades offentligt, släppte Nvidia drivrutiner som stödde det fullt ut.

Äldre förare:

Vanligtvis har en äldre drivrutin också stöd för nyare GPU: er, men eftersom nyare GPU: er stöds av nyare GeForce-drivrutinsnummer som regelbundet ger fler funktioner och bättre stöd, uppmuntras slutanvändaren att alltid använda det högsta möjliga drivrutinsnumret.

Nuvarande förare:

Gratis och öppen källkod

Community-skapade, gratis och öppen källkod drivrutiner finns som ett alternativ till de drivrutiner som släpps av Nvidia. Drivrutiner med öppen källkod är främst utvecklade för Linux, men det kan finnas portar till andra operativsystem. Den mest framträdande alternativa drivrutinen är den omvända, kostnadsfria och öppna källkodaren nouveau- grafikdrivrutinen. Nvidia har offentligt meddelat att de inte kommer att ge stöd för sådana ytterligare enhetsdrivrutiner för sina produkter, även om Nvidia har bidragit med kod till Nouveau -drivrutinen.

Gratis drivrutiner med öppen källkod stöder en stor del (men inte alla) av de funktioner som finns tillgängliga på GeForce-märkta kort. Till exempel saknar Nouveau -drivrutinen från januari 2014 stöd för GPU och minnesklockfrekvensjusteringar och för tillhörande dynamisk strömhantering. Nvidias proprietära förare presterar också genomgående bättre än nouveau i olika riktmärken. Från och med augusti 2014 och version 3.16 av Linux -kärnans huvudlinje möjliggjorde emellertid bidrag från Nvidia delvis stöd för GPU- och minnesklockfrekvensjusteringar.

Licens- och sekretessfrågor

Licensen har gemensamma villkor mot reverse engineering och kopiering, och den frånsäger sig garantier och ansvar.

Från och med 2016 säger GeFORCE-licensen att Nvidia "PROGRAMVARA kan komma åt, samla in icke-personligt identifierbar information om, uppdatera och konfigurera kundens system för att korrekt optimera ett sådant system för användning med PROGRAMVARAN." Sekretessmeddelandet fortsätter med att säga, "Vi kan inte svara på" Spåra inte "-signaler som en webbläsare ställer in för tillfället. Vi tillåter också tredjeparts onlineannonseringsnätverk och sociala medieföretag att samla in information ... Vi kan kombinera personlig information som vi samlar in om dig med information om surfning och spårning som samlas in av dessa [kakor och fyrar] -teknologier. "

Programvaran konfigurerar användarens system för att optimera dess användning, och i licensen står det: "NVIDIA har inget ansvar för eventuella skador eller förluster av sådant system (inklusive förlust av data eller åtkomst) som uppstår från eller relaterar till (a) eventuella ändringar av konfiguration, applikationsinställningar, miljövariabler, register, drivrutiner, BIOS eller andra attribut för systemet (eller någon del av ett sådant system) som initieras via PROGRAMVARAN ".

GeForce Experience

Fram till uppdateringen den 26 mars 2019 var användare av GeForce Experience sårbara för kodkörning , avslag på tjänst och eskalering av privilegieattacker .

Referenser

externa länkar