Lo stesso driver per più tabs di networking – il collo di bottiglia di performance?

Sto utilizzando il driver e1000e per più tabs di networking Intel (Intel EXPI9402PT, basato sul chip 82571EB). Il problema è che quando sto cercando di utilizzare la velocità massima (1GB) su più di un'interface, la velocità su each interface inizia a scendere.

Per un'interface ottengo: 120435948 byte / sec.

Per due interfacce ho: 61080233 byte / sec e 60515294 byte / sec.

Per tre interfacce ho 28564020 byte / sec, 27111184 byte / sec, 27118907 byte / sec.

Che cosa può essere la causa?

EDIT: / proc / interrompe il contenuto:

CPU0 CPU1 CPU2 CPU3 CPU4 CPU5 CPU6 CPU7 106: 17138 0 0 0 0 0 0 0 PCI-MSI eth0 114: 51 0 0 0 102193 0 20 23745467 PCI-MSI eth2 122: 51 290 15 271 0 9253 100 0 PCI-MSI eth3 130: 43 367 0 290 105 39 15 0 PCI-MSI eth4 138: 43 361 105 210 0 140 0 0 PCI-MSI eth5 146: 56 67625 100 0 0 17855245 0 0 PCI-MSI eth6 

4 Solutions collect form web for “Lo stesso driver per più tabs di networking – il collo di bottiglia di performance?”

Non sarà il conducente.

È molto probabile che sia un componente fisicamente condiviso, come interrupt o il bus PCI.

Condividono lo stesso interrupt (IRQ)? Questo è probabilmente il tuo collo di bottiglia.

Qual è l'endpoint del test iperf? Se si sta eseguendo il routing tramite un hardware di networking o unendo l'output a un'unica GBe NIC su un'altra macchina, il collo di bottiglia può essere remoto.

Ho pubblicato alcune magie sysctl qui . Puoi provarlo, vedi se aiuta

PS. Come velocità di benchmarking?

Suggerimenti per Linux e Windows Server, quali Ubuntu, Centos, Apache, Nginx, Debian e argomenti di rete.