Come programmatore faccio scoperte rivoluzionarie ogni pochi anni. Sono davanti alla curva, o dietro di circa π nella fase. Una lezione difficile che ho imparato è che il ridimensionamento OUT non è sempre migliore, spesso i maggiori guadagni in termini di prestazioni sono quando ci siamo riorganizzati e scalati.Motivi per il ridimensionamento di NO vs. -out?
Quali motivi avete per il ridimensionamento verso l'alto? Prezzo, prestazioni, visione, utilizzo previsto? Se è così, come ha funzionato per te?
Una volta ridimensionati a diverse centinaia di nodi che serializzavano e memorizzavano nella cache i dati necessari su ciascun nodo ed eseguivano i processi matematici sui record. Molti, molti miliardi di record dovevano essere (incrociati) analizzati. Era il caso aziendale e tecnico perfetto per impiegare scale-out. Abbiamo continuato a ottimizzare fino allo e abbiamo elaborato circa 24 ore di dati in 26 ore a parete. Per farla breve, abbiamo affittato un gigantesco (per il momento) IBM pSeries, messo Oracle Enterprise su di esso, indicizzato i nostri dati e finito l'elaborazione di le stesse 24 ore di dati in circa 6 ore. Rivoluzione per me.
Così tanti sistemi aziendali sono OLTP e i dati non sono frammentati, ma il desiderio da parte di molti è di cluster o scalabilità. È una reazione alle nuove tecniche o alle prestazioni percepite?
Le applicazioni in generale oggi o le nostre matrici di programmazione si prestano meglio per il ridimensionamento? Dobbiamo/dovremmo tenere sempre in considerazione questa tendenza in futuro?
Soggettivo e argomentativo. – Malfist
Se si rilascia l'ultima riga, questa è davvero una buona domanda. La percezione comune è che buttare più hardware dietro un F5 risolverà tutti i problemi – mfeingold
Concordato sull'argomentativo. Ho adattato la mia domanda. – Xailor