Effectuer des tests fonctionnels approfondis des modules du système Nexa ITSM pour vérifier leur bon fonctionnement conformément aux scénarios prédéfinis. Assurer la vérification de tous les rôles et scénarios d'interaction des utilisateurs avec le système pour identifier d'éventuels bogues ou dysfonctionnements.
1. Objets des tests.
[login to view URL] des incidents (Ticketing) :
Vérification complète de la création, du traitement et de la clôture des incidents, incluant toutes les opérations associées.
[login to view URL] des actifs (Asset Management) :
Contrôle des processus d'enregistrement, de modification et de suppression des actifs pour s'assurer que les opérations sont correctement exécutées.
[login to view URL] :
Tester toutes les fonctionnalités, y compris la gestion des utilisateurs, les droits d'accès, ainsi que les paramètres globaux du système.
[login to view URL] (Tableau de bord) :
Vérifier l'exactitude et l'actualisation des données affichées, ainsi que la personnalisation du tableau de bord.
[login to view URL] :
Assurer le bon fonctionnement des jobs de l'application et leur exécution correcte dans les délais prévus.
2. Types d’utilisateurs et vérification des rôles.
Les tests doivent couvrir trois types d'utilisateurs avec une vérification des droits d'accès pour chaque rôle:
[login to view URL] (Admin Portal) :
Accès complet à toutes les fonctionnalités, y compris la gestion des rôles et paramètres du système.
[login to view URL]érateurs (Agent Portal) :
Accès restreint aux fonctionnalités en fonction des droits assignés (ex. : création, modification et clôture d’incidents).
[login to view URL] (Contact Portal) :
Accès limité pour soumettre des demandes et consulter les incidents via le portail de contact.
3. Domaines des tests fonctionnels.
1. Gestion des incidents (Ticketing) :
Créer, traiter et clôturer des incidents.
Tester les règles d’escalade automatique et de notification.
Vérifier la gestion des priorités.
2. Gestion des actifs (Asset Management) :
Ajout, modification, et suppression des actifs.
Vérifier l’affichage correct des données.
3. Administration :
Vérifier toutes les fonctionnalités administratives, notamment la gestion des utilisateurs et des rôles.
4. Dashboard (Tableau de bord) :
Vérifier que les données sont correctement affichées et actualisées en temps réel.
Tester la personnalisation du tableau de bord (widgets, affichage).
5. Jobs :
Assurer l'exécution correcte des jobs programmés.
Vérifier la gestion des erreurs en cas d'échec ou de retard.
6. Portail de contact (Contact Portal) :
Vérifier l’accès des utilisateurs pour soumettre des demandes et consulter leurs incidents.
4. Scénarios de test.
a. Gestion des incidents : Tester toutes les étapes du traitement, y compris la modification, l’escalade et la clôture.
b. Gestion des actifs : Vérifier l’ajout, la modification et la suppression des actifs.
c. Administration : Tester la gestion des utilisateurs et des rôles.
d. Dashboard : Vérifier l'exactitude et la personnalisation des données affichées.
e. Jobs : Assurer l'exécution correcte des jobs.
f. Portail de contact : Vérifier les interactions des utilisateurs avec le portail.
5. Vérification des valeurs limites.
• Tester la gestion de gros volumes de données.
• Utiliser des caractères spéciaux, scripts ou emojis dans les champs de saisie.
• Uploader des fichiers volumineux (plusieurs gigaoctets).
• Tester les champs avec des types de données inattendus (dates invalides, lettres dans des champs numériques).
6. Gestion des erreurs.
• Vérifier les messages d'erreur clairs et appropriés.
• Tester le comportement du système lors d’actions non autorisées.
7. Tests de Charge (Load Testing).
• Simuler 5 000 à 10 000 utilisateurs simultanés.
• Observer le comportement lors de la saturation des ressources serveur.
• Surveiller la consommation des ressources (CPU, mémoire).
8. Tests de Concurrence.
• Tester la modification ou suppression simultanée de données par plusieurs utilisateurs.
• Vérifier le verrouillage des ressources en cours de modification.
9. Tests de l'interface utilisateur (UI/UX).
• Vérifier la convivialité, la simplicité d'utilisation.
• Tester la compatibilité sur plusieurs appareils et navigateurs.
• Vérifier la réactivité de l’interface sur différentes résolutions.
10. Documentation et reporting.
Les testeurs doivent fournir des scénarios de test détaillés avant l'exécution, incluant :
• Étapes à suivre pour chaque test.
• Résultats attendus.
• Rapports finaux avec détails des erreurs ou problèmes détectés, captures d'écran et seuils de performance atteints.
11. Critères de succès.
a. Fonctionnalité : Tous les modules doivent fonctionner sans erreurs critiques.
b. Performance : Le système doit rester stable avec jusqu’à 10 000 utilisateurs.
c. Concurrence : Gérer correctement les modifications simultanées sans conflits.
d. UI/UX : L’interface doit rester fluide sur tous les appareils et navigateurs.
e. Gestion des erreurs : Messages d’erreur clairs et validations de champ robustes.
12. Délais de réalisation.
1. Préparation des scénarios : Soumis dans un délai de 5 jours.
2. Exécution des tests : Finalisée dans les 10 jours suivant la validation.
3. Rapports finaux : Soumis 2 jours après la fin des tests.
ENGLISH VERSION
Conducted comprehensive functional testing of the Nexa ITSM system modules to ensure they operated correctly according to predefined scenarios. Verify all user roles and interaction scenarios with the system to identify potential bugs or malfunctions.
1. Test Objectives
- Incident Management (Ticketing): Full verification of the creation, processing, and closure of incidents, including all associated operations.
- Asset Management: Control the processes of asset registration, modification, and deletion to ensure correct execution.
- Administration: Test all functionalities, including user management, access rights, and global system settings.
- Dashboard: Verify the accuracy and up-to-date status of displayed data, as well as dashboard customization.
- Jobs: Ensure the proper functioning of application jobs and their correct execution within the expected timeframe.
2. User Types and Role Verification
Tests should cover three types of users with verification of access rights for each role:
- Administrators (Admin Portal): Full access to all functionalities, including role management and system settings.
- Operators (Agent Portal): Restricted access to functionalities based on assigned rights (e.g., creating, modifying, and closing incidents).
- Users (Contact Portal): Limited access to submit requests and view incidents via the contact portal.
3. Functional Test Areas
- Incident Management (Ticketing):
Create, process, and close incidents.
Test automatic escalation and notification rules.
Verify priority management.
- Asset Management:
Add, modify, and delete assets.
Verify the correct display of data.
- Administration:
Test all administrative functionalities, including user and role management.
- Dashboard:
Verify the correct and real-time display of data.
Test dashboard customization (widgets, display).
- Jobs:
Ensure the correct execution of scheduled jobs.
Test error handling in case of failure or delay.
- Contact Portal:
Verify user access to submit requests and view their incidents.
4. Test Scenarios
A. Incident Management: Test all processing steps, including modification, escalation, and closure.
B. Asset Management: Verify the addition, modification, and deletion of assets.
C. Administration: Test user and role management.
D. Dashboard: Verify the accuracy and customization of displayed data.
E. Jobs: Ensure the correct execution of jobs.
F. Contact Portal: Verify user interactions with the portal.
5. Boundary Value Testing
Test the handling of large volumes of data.
Use special characters, scripts, or emojis in input fields.
Upload large files (several gigabytes).
Test fields with unexpected data types (invalid dates, letters in numeric fields).
6. Error Management
Verify clear and appropriate error messages.
Test system behaviour during unauthorized actions.
7. Load Testing
Simulate 5,000 to 10,000 concurrent users.
Observe system behaviour under server resource saturation.
Monitor resource consumption (CPU, memory).
8. Concurrency Testing
Test simultaneous modification or deletion of data by multiple users.
Verify resource locking during modifications.
9. UI/UX Testing
Verify usability and ease of use.
Test compatibility across multiple devices and browsers.
Check interface responsiveness on different screen resolutions.
10. Documentation and Reporting
Testers must provide detailed test scenarios before execution, including:
Steps for each test.
Expected results.
Final reports with details of detected errors or issues, screenshots, and performance thresholds reached.
11. Success Criteria
Functionality: All modules should function without critical errors.
Performance: The system should remain stable with up to 10,000 users.
Concurrency: Handle simultaneous modifications without conflicts.
UI/UX: The interface should remain smooth on all devices and browsers.
Error Management: Clear error messages and robust field validations.
12. Timelines
Preparation of scenarios: Submitted within 5 days.
Execution of tests: Completed within 10 days after validation.
Final reports: Submitted 2 days after the end of the tests.