QF-Test for UI-based Load Tests
This video shows you how you can create system load via the UI with the QF-Test Demo test suite for monitoring and measuring real end-to-end times as well as user acceptance times and ressources needed.
This video shows you how you can create system load via the UI with the QF-Test Demo test suite for monitoring and measuring real end-to-end times as well as user acceptance times and ressources needed.

Mme Weiß de la Münchener Verein, Munich, Allemagne : « Lorsque l’analyse coûts-bénéfices d’un projet ne recommande pas de tests de charge approfondis, les tests automatisés QF-Test existants sont lancés manuellement ou contrôlés dans le temps sous la forme d’un travail par lots sur 20 machines virtuelles du groupe d’assurance MÜNCHENER VEREIN. Ainsi, cette charge est créée sur l’application et une déclaration concernant les performances est possible ».

Rapport d’évaluation pour les tests de charge : Comparaison de 11 outils, open source et commerciaux : Example pratique d’ALEA GmbH
Tests de charge avec QF-Test dans le web
Connexion à des outils commerciaux hautement spécialisés :
Ainsi que des outils à source ouverte :


QF-Test se concentre sur l’interface web, NeoLoad sur les systèmes backend et le niveau réseau.
Check it out yourself
À quelle fréquence les tests de performance automatisés doivent-ils être exécutés ?
Idéalement, de petits tests de performance “smoke” doivent être exécutés à chaque build ou merge important.
Les tests de charge et de stabilité plus complets sont généralement planifiés chaque nuit ou avant les releases afin de garantir des résultats comparables.
Quelles exigences minimales un test de performance automatisé doit-il respecter ?
Il doit être reproductible, avoir un profil de charge clairement défini et vérifier des métriques cibles mesurables (par ex., latence p95, taux d’erreurs).
De plus, un monitoring est nécessaire afin de pouvoir retracer les causes des écarts.
Comment gérer les dépendances externes (par ex. paiement, login, API) dans les tests automatisés ?
Elles sont soit incluses volontairement dans le scénario end-to-end, soit remplacées de manière contrôlée (mock/staging) pour obtenir des résultats stables.
Il est essentiel de définir une stratégie pour chaque dépendance et de la rendre transparente dans les résultats.
Comment éviter que les tests de performance deviennent “flaky” ?
En utilisant des fenêtres de test fixes, des données de test stables, des configurations identiques et des exécutions répétées avec comparaison médiane/percentile.
Il est également utile de définir des seuils avec tolérances et d’éviter de surcharger l’infrastructure en parallèle pendant les tests.