cim vic jader CPU, tim pomalejsi

David Pasek david.pasek at gmail.com
Sun Apr 11 00:44:08 CEST 2021


Ahoj,
udelal jsem nejake Tebou vymyslene testy v mem labu na serverove
virtualizaci VMware vSphere.

Hypervisor: VMware ESXi, 6.7.0, 15160138
Model: PowerEdge R620
Processor Type: Intel(R) Xeon(R) CPU E5-2620 0 @ 2.00GHz
Physical Cores: 6
Logical Processors: 12

Guest OS: FreeBSD 12.1-RELEASE-p10 GENERIC  amd64

TEST
====
Pred testem - smazani tabulky:
  pfctl -t czech_net -T replace -f /tmp/empty

Test - Vytvoreni tabulky:
  root at flb-node-template:~ # time pfctl -t czech_net -T replace -f
/etc/pf.czech_net.table
  2549 addresses added.

VYSLEDKY
=========
Vysledky pro jednotlive konfigurace VM-ka

VM  1x vCPU: 0.000u 0.009s 0:00.00 0.0% 0+0k 0+0io 0pf+0w
VM  2x vCPU: 0.000u 0.008s 0:00.00 0.0% 0+0k 0+0io 0pf+0w
VM  4x vCPU: 0.000u 0.008s 0:00.00 0.0% 0+0k 0+0io 0pf+0w
VM  6x vCPU: 0.000u 0.008s 0:00.00 0.0% 0+0k 0+0io 0pf+0w
VM  8x vCPU: 0.000u 0.009s 0:00.00 0.0% 0+0k 0+0io 0pf+0w
VM  9x vCPU: 0.000u 0.009s 0:00.00 0.0%    0+0k 0+0io 0pf+0w
VM 10x vCPU: 0.000u 0.010s 0:00.01 100.0%    468+448k 0+0io 0pf+0w
VM 12x vCPU: 0.000u 0.011s 0:00.01 100.0%       156+144k 0+0io 0pf+0w

Vsechny predchozi testy byly na ESXi hostu s prave jednim VM-kem,
takze si to tam jelo na hypervizoru samo.

Do 9-ti vCPU se to chovalo celkem stejne a trvalo to cca 0.009s
Od 10-ti vCPU tam byl videt drobny negativni performance impact
Tipnul bych si, ze uz se to pere o fyzicke CPU s hypervisorem, ktery
ke svemu behu take neco potrebuje a navic mi na hypervisoru (ESXi)
krome compute hypervisoru bezi i softwarove definovana storage, takze
ESXi plni i funkci shared storage, coz muze mit take urcity vliv.

Pro zajimavost jsem udelal jeste jeden test, ze jsem k 12-ti vCPU
testovacimu VM-ku, pridal dalsich 9 produkcnich VM-ek, ktere mely v
souctu 15 vCPU, takze na ESXi hostu s 6-ti CPU Cores (12 CPU Threads,
Logical CPUs) bylo 27 vCPU. A tady je vysledek testu
VM 12x vCPU: 0.000u 0.014s 0:00.01 100.0%       312+288k 0+0io 0pf+0w

Je videt, ze tady se cas zase trosku zvysil.

On Thu, Apr 8, 2021 at 12:16 AM Miroslav Lachman <000.fbsd at quip.cz> wrote:
>
> On 06/04/2021 21:41, David Pasek wrote:
>
> > Chapu spravne, ze upgrade VirtualBoxu z 5.22 na 6.1 zlepsil Tvoje
> > vysledky skoro 3x?
>
> Ano, tak nejak se to zrychlilo ciste vymenou VirtualBox 5.22 za 6.1
>
> >> ## A, FreeBSD 11.4 GENERIC + VBox 6.1.18
> >> 1 vCPU: Usr: 0.000s  Krnl: 0.005s  Totl: 0:00.00s
> >> 2 vCPU: Usr: 0.000s  Krnl: 0.296s  Totl: 0:00.29s
> >> 4 vCPU: Usr: 0.000s  Krnl: 0.947s  Totl: 0:00.94s
> >> 6 vCPU: Usr: 0.000s  Krnl: 1.902s  Totl: 0:01.90s
> >> 8 vCPU: Usr: 0.000s  Krnl: 3.073s  Totl: 0:03.07s

Nicmene moje vysledne casy se pohybovali v tisicinach sekund a tvoje v
sekundach, takze rozdil v radech 10^3.
Mel jsem podobne vysledky jako Dan, ktery to testoval na AMD EPYC 7282
(technologie 2019) a dosahoval s VM 8x vCPU: Usr: 0.008s Krnl: 0.030s
Totl: 0.038s
Moje testy probihaly na Intel Xeon E5-2620 (technologie 2012), ale
jelikoz mam asi trosku lepsi hypervizor, tak muj VM  8x vCPU: 0.000u
0.009s 0:00.00 to mel hotove za cca 0.009s, coz je i proti Danovi 4x
rychlejsi, ale ty jsi radove nekde uplne jinde. Jestli to chapu
spravne, tak pouzivas E3-1240 (technologie 2011), coz neni zase tak
vzdalene od toho meho procesoru, aby tam chybeli CPU features, ktere
by mely takovy impakt na virtualizaci, ale tezko rict co Virtual Box
potrebuje.

David.


More information about the Users-l mailing list