Cosa intendi per "larghezza piena"? La larghezza di un carattere dipende dal tipo di carattere che viene visualizzato in.
Se vuoi dire se si tratta di un singolo carattere di byte o no, è ancora non è chiaro. Un singolo carattere in quale codifica? In UTF-8, sarà un carattere a byte singolo se (e solo se) il punto di codice è inferiore a 128; se usi UTF-16 (probabile, dato che sei sotto Windows), confronta il carattere con 128. Una codifica a singolo byte in ISO 8859-1 (un'altra codifica a diffusione estesa ): confronta con 256. Per qualsiasi valore inferiore a 256, l'unità UTF-16 sarà numericamente identica al punto di codice in ISO 8859-1 (talvolta noto come Latin-1). Per il byte singolo codifica ASCII (quasi mai usato oggi, ma la maggior parte delle codifiche comuni sono identiche a esso per il primo 128 codice punti), qualsiasi valore inferiore a 128 è buono.
fonte
2013-12-18 15:27:26
ti rendi conto che la domanda non ha senso. Una stringa non significa nulla se non sai nulla della sua codifica. Per favore, dai un'occhiata a questo simpatico artetto che dovrebbe far luce sull'argomento -> http://www.joelonsoftware.com/articles/Unicode.html – Pandrei
+1 La tua domanda mi ha fatto andare e imparare qualcosa oggi! – Roddy
@Pandrei non consiglierei quell'articolo. Mentre fa uno o due punti utili, ci sono anche un paio di errori: per i principianti, l'autore non sembra capire la differenza _UCS_ e _UTF_. –