La nuova versione di Nvidia CUDA 10.2 è qui, scopri cosa c'è di nuovo e come installarlo

Nvidia CUDA

Una nuova versione di l'API di programmazione grafica generica NVIDIA CUDA 10.2, quasi dieci mesi dopo la versione 10.1. Questa libreria include l'aggiunta di un'API completa per la gestione della memoria virtuale sulla scheda grafica, con funzioni più precise per l'allocazione della memoria e gli intervalli di indirizzi di memoria.

Cuda è una piattaforma di calcolo parallelo creata da Nvidia che può essere utilizzato per aumentare le prestazioni sfruttando la potenza dell'unità di elaborazione grafica (GPU) nel sistema. Cuda è un livello software consentendo agli sviluppatori di software di accedere al set di istruzioni virtuali della GPU e agli elementi computazionali paralleli, per l'esecuzione dei core del computer.

CUDA prova a sfruttare i vantaggi delle GPU rispetto alle CPU general purpose sfruttando il parallelismo offerto dai suoi core multipli, che consentono il lancio di un numero elevatissimo di thread simultanei.

Pertanto, se un'applicazione è progettata utilizzando più thread che eseguono attività indipendenti (che è ciò che fanno le GPU durante l'elaborazione della grafica, il loro compito naturale), una GPU sarà in grado di offrire prestazioni eccezionali.

Cosa c'è di nuovo in Nvidia CUDA 10.2?

Questa versione è ricca di librerie che offrono funzionalità nuove ed estese., correzioni di bug e miglioramenti delle prestazioni per ambienti con GPU singola e multipla.

In questa versione aggiunto un nuovo livello di interoperabilità di il tuo sistema operativo in tempo reale (RTOS) per il sistema operativo NVIDIA DRIVE, Chiamato Interoperabilità dell'interfaccia di comunicazione software NVIDIA.

Sono disponibili due interfacce principali: NvSciBuf per lo scambio di aree di memoria complete e NvSciSync per la sincronizzazione. Queste funzionalità sono nell'anteprima.

A livello di piattaforme gestite, CUDA 10.2 è l'ultima versione che sarà disponibile per macOS, Inoltre, RHEL 6 non sarà più supportato poiché RHEL 2010 non sarà più supportato nella prossima versione di CUDA (proprio come i compilatori Microsoft C ++ dal 2013 al XNUMX).

Oltre a ciò Nvidia prepara anche un piccolo tipo sulle funzioni disponibili. Ora che nvJPEG è una libreria separata, le corrispondenti funzioni NPP Compression Primitives stanno per scomparire.

Tra le altre modifiche che si distinguono dall'annuncio, Potremmo scoprire che le prestazioni e la scalabilità sono state migliorate per i seguenti casi d'uso:

  • Multi-GPU senza 2 trasformatori di potenza
  • Trasformazioni di dimensioni dispari R2C e Z2D
  • Trasformazioni 2D con dimensioni ridotte e numero elevato di lotti.

Se vuoi saperne di più su questa nuova versione di CUDA, puoi consultare il seguente collegamento.

Come installare Nvidia CUDA su Ubuntu e derivati?

Per installare CUDA sul sistema, è necessario che abbiamo i driver Nvidia installato. Se ancora non li hai, puoi consultare il seguente articolo.

Ora come primo passo dobbiamo scaricare lo script di installazione CUDA, che possiamo ottenere da un terminale digitando il seguente comando:

wget http://developer.download.nvidia.com/compute/cuda/10.2/Prod/local_installers/cuda_10.2.89_440.33.01_linux.run

Fatto questo adesso dobbiamo dare i permessi di esecuzione allo script con:

sudo chmod +x cuda_10.2.89_440.33.01_linux.run

Stiamo per installare alcuni pacchetti necessari.

sudo apt-get install gcc-6 g++-6 linux-headers-$(uname -r) -y

sudo apt-get install freeglut3 freeglut3-dev libxi-dev libxmu-dev

E ora eseguiremo lo script con:

sudo sh cuda_10.2.89_440.33.01_linux.run

Durante il processo di installazione ci verranno poste alcune domande Di cui dovremo rispondere, in pratica ci chiederà se accettiamo le condizioni d'uso, se vogliamo cambiare la directory predefinita, tra le altre cose.

Dove dovrebbero prestare attenzione quando viene chiesto se si desidera installare i driver Nvidia dove risponderanno no poiché devono averli installati.

Dopo aver completato l'installazione, devono solo impostare le loro variabili di ambiente nel file che andremo a creare nel seguente percorso /etc/profile.d/cuda.sh.

sudo nano /etc/profile.d/cuda.sh

E nel posizioneremo il seguente contenuto:

export PATH=$PATH:/usr/local/cuda/bin

export CUDADIR=/usr/local/cuda

Creano anche il file:

sudo nano /etc/ld.so.conf.d/cuda.conf

E aggiungiamo la riga:

/usr/local/cuda/lib64

E infine eseguiamo:

export PATH=/usr/local/cuda-10.2/bin:/usr/local/cuda-10.2/NsightCompute-2019.1${PATH:+:${PATH}}
export LD_LIBRARY_PATH=/usr/local/cuda-10.2/lib64\
 ${LD_LIBRARY_PATH:+:${LD_LIBRARY_PATH}}
sudo ldconfig

Lascia un tuo commento

L'indirizzo email non verrà pubblicato. I campi obbligatori sono contrassegnati con *

*

*

  1. Responsabile dei dati: Miguel Ángel Gatón
  2. Scopo dei dati: controllo SPAM, gestione commenti.
  3. Legittimazione: il tuo consenso
  4. Comunicazione dei dati: I dati non saranno oggetto di comunicazione a terzi se non per obbligo di legge.
  5. Archiviazione dati: database ospitato da Occentus Networks (UE)
  6. Diritti: in qualsiasi momento puoi limitare, recuperare ed eliminare le tue informazioni.