Sentitevi liberi di correggermi se qualche parte della mia comprensione è sbagliata.È possibile che un compilatore JIT utilizzi la GPU per determinate operazioni dietro le quinte?
La mia comprensione è che le GPU offrono un sottoinsieme delle istruzioni fornite da una CPU normale, ma le eseguono molto più velocemente.
So che ci sono modi per utilizzare i cicli GPU per scopi non grafici, ma sembra (in teoria) un linguaggio che è Just In Time compilato in grado di rilevare la presenza di una GPU adatta e scaricare parte del lavoro in GPU dietro le quinte senza modifica del codice.
La mia comprensione è ingenua? È solo una questione di esso è davvero complicato e non è stato fatto?
Intendi JIT come con CLR o JVM? Bytecodes generici? DSL come R? – Stringer
Stavo pensando allo stile CLR/JVM, ma sono interessato anche a qualsiasi altra risposta. – Davy8