Qual è la complessità della conversione di un numero n bit molto grande in una rappresentazione decimale?Complessità computazionale della conversione di base
Il mio pensiero è che l'algoritmo elementare della divisione intera ripetuta, prendendo il resto per ottenere ogni cifra, avrebbe la complessità O(M(n)log n)
, dove M(n)
è la complessità dell'algoritmo di moltiplicazione; tuttavia, la divisione non è tra 2 numeri n bit ma piuttosto 1 numero bit n e un piccolo numero costante, quindi mi sembra che la complessità potrebbe essere minore.
@xdavidliu: Non è necessario passare il tempo O (M (n)) per calcolare il quoziente e il resto di un intero grande per 10. È sufficiente il tempo lineare. – tmyklebu
@tmyklebu non importa, sì che è corretto – xdavidliu