Se un processore a 32 bit è, in realtà, solo 32 bit di lunghezza, come possono le operazioni matematiche lavorare su numeri a 64 bit? Per esempio:Come viene eseguita la matematica a 64 bit su una macchina a 32 bit?
long lngTemp1 = 123456789123;
long lngTemp2 = lngTemp1 * 123;
Secondo MSDN, un lungo in C# è un firmato numero a 64 bit: http://msdn.microsoft.com/en-us/library/ctetwysk(VS.71).aspx
Come è possibile che a 32 bit Intel microprocessore in grado di eseguire il codice, come sopra senza ottenere un overflow?