| 371 | |
| 372 | Vous pouvez utiliser le bulk submission pour soumettre une collections de jobs indépendants. Pour cela, il faut mettre tous les .jdl dans un même directory et utiliser l'option --collection avec glite-wms-job-submit. Ce mécanisme est |
| 373 | très performant et préférable à la soumission individuel d'un grand nombre de jobs. |
| 374 | |
| 375 | Ici nous avons par exemple trois fichiers .jdl dans le directory jdl : |
| 376 | |
| 377 | {{{ |
| 378 | [diarra@ipnlinux2 ~/work]$ ls -l jdl/* |
| 379 | -rw-r--r-- 1 diarra sii 247 Jun 3 17:25 jdl/job1.jdl |
| 380 | -rw-r--r-- 1 diarra sii 247 Jun 3 17:25 jdl/job2.jdl |
| 381 | -rw-r--r-- 1 diarra sii 247 Jun 3 17:25 jdl/job3.jdl |
| 382 | }}} |
| 383 | |
| 384 | Pour soumettre la collection des 3 jobs, faire : |
| 385 | |
| 386 | {{{ |
| 387 | [diarra@ipngrid01 ~/work]$ glite-wms-job-submit -a --collection jdl |
| 388 | |
| 389 | Connecting to the service https://grid09.lal.in2p3.fr:7443/glite_wms_wmproxy_server |
| 390 | ====================== glite-wms-job-submit Success ====================== |
| 391 | The job has been successfully submitted to the WMProxy |
| 392 | Your job identifier is: |
| 393 | https://grid02.lal.in2p3.fr:9000/6zqZkrgnQ2vYkPaeNabbiQ |
| 394 | ========================================================================== |
| 395 | }}} |
| 396 | |
| 397 | Je jobId affiché est l'identifiant de la collection (<collID>). Il faut utiliser <collID> pour pouvoir |
| 398 | connaitre l'état individuel des jobs ainsi que les vrais jobIDs. |
| 399 | |
| 400 | {{{ |
| 401 | diarra@ipngrid01 ~/work]$ glite-wms-job-status https://grid02.lal.in2p3.fr:9000/6zqZkrgnQ2vYkPaeNabbiQ |
| 402 | |
| 403 | |
| 404 | ************************************************************* |
| 405 | BOOKKEEPING INFORMATION: |
| 406 | |
| 407 | Status info for the Job : https://grid02.lal.in2p3.fr:9000/6zqZkrgnQ2vYkPaeNabbiQ |
| 408 | Current Status: Running |
| 409 | Submitted: Tue Jun 3 17:25:54 2008 CEST |
| 410 | ************************************************************* |
| 411 | |
| 412 | - Nodes information for: |
| 413 | Status info for the Job : https://grid02.lal.in2p3.fr:9000/-nUgO-prNqqBNn1JL5i-uA |
| 414 | Current Status: Running |
| 415 | Status Reason: Job successfully submitted to Globus |
| 416 | Destination: ipnls2001.in2p3.fr:2119/jobmanager-pbs-ipno |
| 417 | Submitted: Tue Jun 3 17:25:54 2008 CEST |
| 418 | ************************************************************* |
| 419 | Status info for the Job : https://grid02.lal.in2p3.fr:9000/0Zits9wf2vkNLmk2eVUaMg |
| 420 | Current Status: Running |
| 421 | Status Reason: Job successfully submitted to Globus |
| 422 | Destination: ipnls2001.in2p3.fr:2119/jobmanager-pbs-ipno |
| 423 | Submitted: Tue Jun 3 17:25:54 2008 CEST |
| 424 | ************************************************************* |
| 425 | Status info for the Job : https://grid02.lal.in2p3.fr:9000/74kheBpT3e3qV-vq7dkG1A |
| 426 | Current Status: Running |
| 427 | Status Reason: Job successfully submitted to Globus |
| 428 | Destination: ipnls2001.in2p3.fr:2119/jobmanager-pbs-ipno |
| 429 | Submitted: Tue Jun 3 17:25:54 2008 CEST |
| 430 | ************************************************************* |
| 431 | }}} |
| 432 | |
| 433 | La commande glite-wms-job-output sur la <collID>, permet d'obtenir les sorties |
| 434 | des jobs qui se sont terminés sans erreur. Les sorties sont rangées dans un sous-directory par job. |
| 435 | |
| 436 | {{{ |
| 437 | [diarra@ipngrid01 ~/work]$ glite-wms-job-output https://grid02.lal.in2p3.fr:9000/6zqZkrgnQ2vYkPaeNabbiQ |
| 438 | |
| 439 | Connecting to the service https://grid09.lal.in2p3.fr:7443/glite_wms_wmproxy_server |
| 440 | ================================================================================ |
| 441 | JOB GET OUTPUT OUTCOME |
| 442 | Output sandbox files for the DAG/Collection : |
| 443 | https://grid02.lal.in2p3.fr:9000/6zqZkrgnQ2vYkPaeNabbiQ |
| 444 | have been successfully retrieved and stored in the directory: |
| 445 | /home/diarra/JobOutput/diarra_6zqZkrgnQ2vYkPaeNabbiQ |
| 446 | ================================================================================ |
| 447 | }}} |
| 448 | |
| 449 | Les résultats ont été enregistrés dans /home/diarra/JobOutput/diarra_6zqZkrgnQ2vYkPaeNabbiQ. Nous y retrouvons |
| 450 | les sorties de chaque job dans un directory différent : |
| 451 | |
| 452 | {{{ |
| 453 | [diarra@ipngrid01 ~/work]$ ls /home/diarra/JobOutput/diarra_6zqZkrgnQ2vYkPaeNabbiQ |
| 454 | ids_nodes.map Node_job1_jdl Node_job2_jdl Node_job3_jdl |
| 455 | |
| 456 | [diarra@ipngrid01 ~/work]$ ls /home/diarra/JobOutput/diarra_6zqZkrgnQ2vYkPaeNabbiQ/Node_job1_jdl/ |
| 457 | std.err std.out |
| 458 | }}} |
| 459 | |
| 460 | Le fichier ids_nodes.map indique quel sous-directory est utilisé pour chaque jobId. |
| 461 | |
| 462 | Les commandes glite-wms-job-cancel et glite-wms-job-logging-info s'appliquent également sur les collections. |
| 463 | |
| 464 | |