Chiunque abbia esperienza con SQL su iSCSI sulle caselle di Equalogic?

Chiunque abbia esperienza con SQL su iSCSI sulle caselle di Equalogic? Ho sentito che iSCSI superano la concorrenza.

Dicono anche che le connessioni di width funzionano per 2Gbps.

Qualche pensiero su questo?

  • Qual è il punto del routing SAN?
  • Suggerimenti per ESX per SAN?
  • Aggiornamento di archiviazione SAN obsoleta EMC AX100
  • Come creare più partizioni fisiche / volumi in openfiler su un singolo HDD
  • Strangeness durante l'installazione di Windows Server (duplicazione di unità)
  • Condivisione di Windows: il nome della networking specificato non è più disponibile
  • Le performance di I / O di MSSQL sono diminuite dopo il consolidamento SAN?
  • il poolexpand di zpool non modifica la dimensione della piscina
  • 4 Solutions collect form web for “Chiunque abbia esperienza con SQL su iSCSI sulle caselle di Equalogic?”

    Equalogico funziona molto bene con SQL ma se soddisfa le tue esigenze dipende da ciò che vuoi get dall'ambiente SQL e quanto sei disposto a pagare per l'impostazione di arrays Equallogic. Se si esegue il check-out del sito Equalogic hanno un numero di documenti di studio disponibili, vorrei collegarli, ma il sito richiede la logging.

    La cosa fondamentale sugli ambienti Equalogic che si deve tenere a mente è che la prestazione dipende dal numero di NICS nei tuoi server dedicati a iSCSI e al numero di arrays Equalogic che hai configurato per il pool che i tuoi volumi di archiviazione (LUNS ) appartiene a. Il model Equalogic distribuisce volumi su un pool di fino a 4 membri e distribuisce le richieste di IO su tante interfacce sul server e sugli arrays quanto ansible.

    Utilizza un DSM personalizzato nello stack Microsoft MPIO (e un adattatore di memory plug-in simile per VMware ESX4) per gestire il reindirizzamento a più routes sia nei nICS di origine nel server e nelle porte ethernet di destinazione negli arrays di destinazione . Ciò significa che può scalare in modo molto efficace ed è fondamentalmente limitata solo dal numero di NICS che sei disposto a dedicare a iSCSI sui server. Il volume di un singolo volume può facilmente sostenere molti gigabit / sec di traffico (e superare i 10 IOP) dato questa architettura, a condizione che sia messo insieme correttamente.

    L'objective principale di questo approccio è quello di acquistare più arrays per creare ambienti che possano contenere costantemente oltre 3000 tassi di throughput IOPS \ 400Megabyte / sec (per gli arrays PS6000, circa la metà di quella per PS4000). Il corollario di questo è che la scala è abbastanza lineare.

    Per quanto riguarda il superamento della concorrenza – dipende da quanto sei disposto a pagare e precisamente quello che vuoi fare con esso. Le SAN di Equalogic non sono particolarmente economiche ma quando si costruisce un design con caratteristiche e caratteristiche di performance equivalenti è generalmente competitivo.

    Come ha detto Helvick, scende a quello che puoi permetterti.

    Attualmente ci sono 2 SANS equali (5000 e 6000) e entrambi sono stati configurati in RAID 50 e messi nella stessa piscina. Ciò significa che il traffico SQL condivide lo spazio con tutti gli altri. Ovviamente questo è un male, e stiamo lavorando su methods per risolvere questo problema.

    Ogni unità viene chiamata membro e si imposta il tuo raid su tutti i dischi. Mentre questo può essere utile per alcune cose, non è così buono quando si condivide le cose con SQL che potrebbe funzionare meglio sotto RAID 10.

    Stiamo guardando ad aggiungere un'altra unità come RAID 10 e submit tutti i file di dati SQL, ma ci sarà un grosso costo con questo.

    La cosa triste è che si configurano i membri in pool di archiviazione e poi distribuiscono volumi da lì. Abbiamo due persone da Dell che ci dicono cose diverse e stiamo cercando di capire quale sia la vera risposta. Vorremmo essere in grado di avere un membro in più piscine ma in questo momento non sembra che è ansible secondo la documentazione. Cercherò di tornare indietro e aggiornarlo in quanto scopro di più, ma se hai i soldi e le risorse sono sicuro che puoi creare qualcosa che potrebbe raggiungere livelli di performance molto elevati. Sembra promettente a questo punto.

    la risposta è sempre "dipende"

    mai usato iSCSI ma con EMC ho visto performance SQL in tutta la mappa. abbiamo usato per avere micro-gestione PHB e vecchia EMC SAN che avevamo per get e get dati su each megabyte di disco. dal momento in cui era tutta la performance era crap. Un anno prima abbiamo spazzato noi abbiamo comprato un nuovo disco per esso e configurato separatamente dal disco esistente e gestito un server QA SQL su di esso per un po '. I task di I / O pesanti come l'indice alterato sono stati eseguiti da 2 a 3 volte più velocemente su un server QA che era più lento rispetto ai nostri server SQL di produzione.

    ora abbiamo una nuova EMC SAN e EMC ci ha configurato. la prestazione è OK. se spendiamo più soldi e acquistiamo più disco per distribuire l'I / O, allora sarà più veloce.

    Attualmente disponiamo di un cluster di server VMWARE che utilizzano mappe port virtuale con 8 porte di uplink a un interruttore gigabit, dando un throughput di 8 gb / s per tutti i dispositivi, incluso iSCSI. Ho iniziato a trovare il fattore limitante dell'interface iSCSI è l'ethernet che distriggers il dispositivo iSCSI piuttosto che il server VMWARE, il che significa che adesso stiamo aspettando in gran parte il bus I / O sul dispositivo iSCSI esterno. Ho anche trovato le cornici jumbo rallentato il dispositivo da una piccola percentuale, quindi ha deciso di attaccare con 1500 MTU.

    Suggerimenti per Linux e Windows Server, quali Ubuntu, Centos, Apache, Nginx, Debian e argomenti di rete.