Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

bbe_mpiblast_-_page_en_developpement [2016/12/16 10:15] (Version actuelle)
Ligne 1: Ligne 1:
 +Modifié par Penel, le 05 May 2006\\
 +\\
 +
 +====== BBE: mpiBlast - Page en développement ======
 +
 +\\
 +\\
 +
 +=====  Prérequis ​ =====
 +
 +  * mpi
 +
 +=====  Installation de mpiBlast sous Linux  =====
 +
 +
 +====  Téléchargements ​ ====
 +
 +Télécharger les sources de mpiBLAST
 +<​code>​
 +> mkdir $THRONG_DIR/​appli/​linux/​mpiblast
 +> cd mpiblast
 +> wget http://​mpiblast.lanl.gov/​downloads/​files/​mpiBLAST-1.4.0.tgz ​
 +> tar xvfz mpiBLAST-1.4.0.tgz
 +> rm mpiBLAST-1.4.0.tgz ​
 +</​code>​
 +Télécharger le patch ncbi depuis ftp:​%%//​%%ftp.ncbi.nih.gov/​toolbox/​ncbi_tools\\
 +Note: mpiBLAST-1.4.0 requires the October 2004 release.)
 +<​code>​
 +> cd $THRONG_DIR/​appli/​linux/​mpiblast
 +>ftp ftp.ncbi.nih.gov
 +Connection sous anonymous
 +ftp>cd toolbox/​ncbi_tools/​old/​20041020/​
 +ftp>bin
 +ftp>get ncbi.tar.gz ​
 +ftp>quit
 +
 +> tar xvfz ncbi.tar.gz ​
 +</​code>​
 +
 +====  Configure et Build  ====
 +
 +
 +===  Installation du patch  ===
 +
 +<​code>​
 +> cd $THRONG_DIR/​appli/​linux/​mpiblast/​ncbi
 +>patch -p1 < $THRONG_DIR/​appli/​linux/​mpiblast/​mpiblast-1.4.0/​ncbi_Oct2004_evalue.patch
 +</​code>​
 +résultat de la commande
 +<​code>​
 +patching file tools/​blast.c
 +patching file tools/​blastdef.h
 +patching file tools/​blastkar.c
 +patching file tools/​blastutl.c
 +</​code>​
 +
 +===  Build du patch  ===
 +
 +<​code>​
 +> cd $THRONG_DIR/​appli/​linux/​mpiblast
 +> ./​ncbi/​make/​makedis.csh
 +</​code>​
 +**NB** Beaucoup de warnings pendant cette étape!\\
 +**!!!!! Si la compilation ne marche pas alors ne pas effectuer l'​étape avec la commande patch(+ faire une petite prière pour la suite)** ​
 +===  Configure de mpiBLAST ​ ===
 +
 +<​code>​
 +> cd $THRONG_DIR/​appli/​linux/​mpiblast/​mpiblast-1.4.0/​
 +>  ./configure --with-mpi=/​usr/​local/​products/​mpi/​mpich-1.2.6 --with-ncbi=$THRONG_DIR/​appli/​linux/​mpiblast/​ncbi --prefix=/​afs/​in2p3.fr/​home/​throng/​biometr/​appli/​linux/​mpiblast/​
 +</​code>​
 +
 +===  Build et install de mpiBLAST ​ ===
 +
 +<​code>​
 +> make
 +> make install
 +</​code>​
 +Les exécutables de mpiBLAST doivent avoir été crées dans $THRONG_DIR/​appli/​linux/​mpiblast/​bin.\\
 +Liste des executables:​
 +<​code>​
 +-rwxr-xr-x ​   1 penel    biometr ​  ​4563785 Mar 15 11:12 mpiblast
 +-rwxr-xr-x ​   1 penel    biometr ​  ​3974381 Mar 15 11:12 mpiblast_cleanup
 +-rwxr-xr-x ​   1 penel    biometr ​  ​4134929 Mar 15 11:12 mpiformatdb
 +</​code>​
 +=====  Utilisation de mpiBlast sous Linux  =====
 +
 +Documentation dans http://​mpiblast.lanl.gov/​Docs.Guide.html ​
 +====  Fichier de config .ncbirc ​ ====
 +
 +Il se trouve dans
 +<​code>​
 +/​afs/​in2p3.fr/​throng/​biometr/​appli/​linux/​blast/​.ncbirc
 +</​code>​
 +On le modifie pour ajouter les options [mpiBLAST]
 +<​code>​
 +>pwd
 +/​afs/​in2p3.fr/​home/​throng/​biometr/​appli/​linux/​blast
 +>cat .ncbirc
 +[NCBI]
 +Data=/​afs/​in2p3.fr/​throng/​biometr/​appli/​linux/​blast/​data
 +[mpiBLAST]
 +Shared=/​afs/​in2p3.fr/​group/​biometr/​blast2/​rep_mpiblast/​shared
 +Local=/​afs/​in2p3.fr/​group/​biometr/​blast2/​rep_mpiblast/​local
 +</​code>​
 +Il est faute ensuite copier dans son directory local et de le modifier si besoin(?​).\\
 +\\
 +Extrait de la doc:\\
 +\\
 +//\\
 +Before running mpiBLAST, it is necessary to configure the shared and local storage paths that each node will use to access the database. A shared storage path is usually a path to a directory residing on a file server, such as NFS, AFS, or samba. The local storage path is typically a subdirectory within the /tmp directory, e.g. /​tmp/​mpiblast. As worker nodes search the database, they will copy fragments to the local storage directory. During subsequent searches of the same database, the fragments will already reside in local storage and thus will not need to be copied. Note that diskless nodes can be supported by setting the local storage path to be the same as the shared storage path. To configure mpiBLAST create a .ncbirc file in your home directory that looks like:\\
 +\\
 +[NCBI]\\
 +Data=/​path/​to/​shared/​storage/​data\\
 +\\
 +[BLAST]\\
 +BLASTDB=/​path/​to/​shared/​storage\\
 +BLASTMAT=/​path/​to/​shared/​storage/​data\\
 +\\
 +[mpiBLAST]\\
 +Shared=/​path/​to/​shared/​storage\\
 +Local=/​path/​to/​local/​storage\\
 +\\
 +The Data variable gives the location of the NCBI Data directory containing BLOSUM and PAM scoring matrices, among other things. The scoring matrix files are necessary for any type of protein BLAST search and should be accessible by all cluster nodes. The BLASTMAT variable also specifies the path to the scoring matrices, and will usually be identical to the Data variable. The BLASTDB variable tells standard NCBI blastall (not mpiBLAST) where to find BLAST databases. As previously mentioned, the Shared and Local variables give the shared and local database paths, respectively. By setting BLASTDB to the same path as Shared, it is possible for NCBI blastall to share the same databases that mpiBLAST uses. In such a configuration,​ be sure to format all databases with mpiformatdb rather than formatdb.\\
 +// 
 +====  Configurer MPI  ====
 +
 +<​code>​
 +>source /​usr/​local/​products/​mpi/​mpi_env_mpich.csh
 +>setenv BQSCLUSTER pistoo
 +</​code>​
 +Pour revenir au BQS normal:
 +<​code>​
 +>​unsetenv BQSCLUSTER pistoo
 +</​code>​
 +
 +====  Création de la banque BLAST  ====
 +
 +On se place dans le directory de travail
 +<​code>​
 +>pwd
 +/​afs/​in2p3.fr/​group/​biometr/​blast1/​test_simon/​mpiblast/​pan
 +</​code>​
 +On recopie en local le fichier .ncbirc
 +<​code>​
 +>cp /​afs/​in2p3.fr/​home/​throng/​biometr/​appli/​linux/​blast/​.ncbirc .
 +>cat .ncbirc
 +[NCBI]
 +Data=/​afs/​in2p3.fr/​throng/​biometr/​appli/​linux/​blast/​data
 +[mpiBLAST]
 +Shared=/​afs/​in2p3.fr/​group/​biometr/​blast2/​rep_mpiblast/​shared
 +Local=/​afs/​in2p3.fr/​group/​biometr/​blast2/​rep_mpiblast/​local
 +</​code>​
 +J'​efface tout ce qu'il y a dans les répertoire "​shared"​ et "​local"​.
 +<​code>​
 +>ls /​afs/​in2p3.fr/​group/​biometr/​blast2/​rep_mpiblast/​shared/​
 +.
 +>ls /​afs/​in2p3.fr/​group/​biometr/​blast2/​rep_mpiblast/​shared/​
 +.
 +</​code>​
 +On a récupéré les sequence de chimpanzée sous le format fasta dans le fichier "​pan":​
 +<​code>​
 +>ls -la
 +total 495
 +-rw-r--r-- ​   1 penel    biometr ​      197 May  4 13:33 .ncbirc
 +-rw-r--r-- ​   1 penel    biometr ​   505762 May  4 13:36 pan
 +</​code>​
 +On formate la banque BLAST pour pan:
 +<​code>​
 +>​mpiformatdb -N 10 -i pan
 +Reading input file
 +Done, read 9669 lines
 +Reordering 1575 sequence entries
 +Database type unspecified,​ assuming protein
 +Breaking pan (0 MB) into 10 fragments
 +Executing: formatdb -i /​tmp/​reorder2GjmSD -p T -N 10 -n /​afs/​in2p3.fr/​group/​biometr/​blast2/​rep_mpiblast/​shared/​pan -o T 
 +Removed /​tmp/​reorder2GjmSD
 +Created 10 fragments.
 +</​code>​
 +Le directory "​Shared"​ contient maintenant les 10 fragments de la database de pan.
 +<​code>​
 +>ls /​afs/​in2p3.fr/​group/​biometr/​blast2/​rep_mpiblast/​shared/  ​
 +pan.000.phr ​ pan.001.pin ​ pan.002.pnd ​ pan.003.pni ​ pan.004.psd ​ pan.005.psi ​ pan.006.psq ​ pan.008.phr ​ pan.009.pin
 +pan.000.pin ​ pan.001.pnd ​ pan.002.pni ​ pan.003.psd ​ pan.004.psi ​ pan.005.psq ​ pan.007.phr ​ pan.008.pin ​ pan.009.pnd
 +pan.000.pnd ​ pan.001.pni ​ pan.002.psd ​ pan.003.psi ​ pan.004.psq ​ pan.006.phr ​ pan.007.pin ​ pan.008.pnd ​ pan.009.pni
 +pan.000.pni ​ pan.001.psd ​ pan.002.psi ​ pan.003.psq ​ pan.005.phr ​ pan.006.pin ​ pan.007.pnd ​ pan.008.pni ​ pan.009.psd
 +pan.000.psd ​ pan.001.psi ​ pan.002.psq ​ pan.004.phr ​ pan.005.pin ​ pan.006.pnd ​ pan.007.pni ​ pan.008.psd ​ pan.009.psi
 +pan.000.psi ​ pan.001.psq ​ pan.003.phr ​ pan.004.pin ​ pan.005.pnd ​ pan.006.pni ​ pan.007.psd ​ pan.008.psi ​ pan.009.psq
 +pan.000.psq ​ pan.002.phr ​ pan.003.pin ​ pan.004.pnd ​ pan.005.pni ​ pan.006.psd ​ pan.007.psi ​ pan.008.psq ​ pan.mbf
 +pan.001.phr ​ pan.002.pin ​ pan.003.pnd ​ pan.004.pni ​ pan.005.psd ​ pan.006.psi ​ pan.007.psq ​ pan.009.phr ​ pan.pal
 +</​code>​
 +
 +====  Faire un query via BQS  ====
 +
 +Ne pas oublier de faire
 +<​code>​
 +>setenv BQSCLUSTER pistoo
 +</​code>​
 +Ecrire le script "​script.csh"​
 +<​code>​
 +>cat script.csh
 +#!/bin/csh
 +source /​usr/​local/​products/​mpi/​mpi_env_mpich.csh
 +setenv RESBLAST pan.blast
 +setenv MPIDIR /​afs/​in2p3.fr/​group/​biometr/​blast1/​test_simon/​mpiblast/​pan
 +mpirun -np $BQS_PROCNUMBER -machinefile $BQS_PROCLISTPATH /​afs/​in2p3.fr/​home/​throng/​biometr/​appli/​linux/​mpiblast/​bin/​mpiblast -p blastp -m 8 -d pan -i $MPIDIR/pan -o  $TMPBATCH/​$RESBLAST ​
 +echo "​Compresse le fichier de sortie $TMPBATCH/​$RESBLAST"​
 +gzip $TMPBATCH/​$RESBLAST
 +echo "Copie le fichier de sortie"​
 +cp  $TMPBATCH/​$RESBLAST.gz $MPIDIR/
 +
 +</​code>​
 +Puis, lancer un qsub sur 12 processeurs ( c'est a dire 10 + 2)
 +<​code>​
 +>qsub -V  -N mpiblast_pan -l platform=LINUX,​T=400000 -l proc=12 -l ptype=MPICH script.csh
 +job mpiblast_pan submitted to pistoo cluster on 05/​04/​06-13:​53:​43
 +
 +</​code>​
 +Si le résultat est:
 +<​code>​
 +access to cluster pistoo is restricted
 +</​code>​
 +Cela siginifie que vous n'avez pas acces a Pistoo. Contactez le //czar// de votre groupe, qui devra envoyer un mail au support util!sateur.\\
 +\\
 +Pour suivre l'​evolution du job:
 +<​code>​
 +>qjobp
 +user     ​jobname ​  ​status ​       time        ptype  worker ​         procs            cputime ​           memsize ​       scratchsize
 +----------------------------------------------------------------------------------------------------------------------------------
 +penel    mpibl..an STARTED ​      ​05/​04-14:​00 MPICH  I@LINUX ​           12        0/  4800000 ​       0/     ​3072 ​       0/    12300
 +                                                    1.ccpl0371 ​         1        0/   ​400000 ​       0/      256        0/     1025
 +                                                    1.ccpl0347 ​         1        0/   ​400000 ​       0/      256        0/     1025
 +                                                    1.ccpl0341 ​         1        0/   ​400000 ​       0/      256        0/     1025
 +                                                    1.ccpl0353 ​         1        0/   ​400000 ​       0/      256        0/     1025
 +                                                    1.ccpl0343 ​         1        0/   ​400000 ​       0/      256        0/     1025
 +                                                    1.ccpl0352 ​         1        0/   ​400000 ​       0/      256        0/     1025
 +                                                    1.ccpl0346 ​         1        0/   ​400000 ​       0/      256        0/     1025
 +                                                    1.ccpl0344 ​         1        0/   ​400000 ​       0/      256        0/     1025
 +                                                    1.ccpl0348 ​         1        0/   ​400000 ​       0/      256        0/     1025
 +                                                    1.ccpl0377 ​         1        0/   ​400000 ​       0/      256        0/     1025
 +                                                    1.ccpl0386 ​         1        0/   ​400000 ​       0/      256        0/     1025
 +                                                    1.ccpl0339 ​         1        0/   ​400000 ​       0/      256        0/     1025
 +
 +</​code>​
 +Le job est finii
 +<​code>​
 +>ls
 +formatdb.log ​ mpiblast_pan.e0015471 ​ mpiblast_pan.o0015471 ​ pan  pan.blast.gz ​ script.csh
 +</​code>​
 +On vérifie le fichier d'​erreur:​
 +<​code>​
 +>cat mpiblast_pan.e0015471
 +[blastall] WARNING: ​ [000.000] ​ Q7YQD0_PANTR:​ SetUpBlastSearch failed.
 +[blastall] ERROR: ​ [000.000] ​ Q7YQD0_PANTR:​ BLASTSetUpSearch:​ Unable to calculate Karlin-Altschul params, check query sequence
 +[blastall] WARNING: ​ [000.000] ​ Q7YQD1_PANTR:​ SetUpBlastSearch failed.
 +[blastall] ERROR: ​ [000.000] ​ Q7YQD1_PANTR:​ BLASTSetUpSearch:​ Unable to calculate Karlin-Altschul params, check query sequence
 +[blastall] WARNING: ​ [000.000] ​ Q7YQD0_PANTR:​ SetUpBlastSearch failed.
 +.
 +.
 +.
 +.
 +</​code>​
 +On vérifie le fichier de log:
 +<​code>​
 +>​cat ​ mpiblast_pan.o0015471 ​
 +
 +***************************************************************
 +*             BQS Batch Queueing System Rel. 6.2.2          ​
 +*          Centre de Calcul de l'​IN2P3,​ Villeurbanne ​       ​
 +***************************************************************
 +* User:                    penel                            ​
 +* Group: ​                  ​biometr ​                         ​
 +* Jobname: ​                ​mpiblast_pan ​                    
 +* JobID: ​                  ​111.ccpl0379 ​                    
 +* Class: ​                  ​I ​                               ​
 +* Worker: ​                 ccpl0379.in2p3.fr ​               ​
 +* Operating system: ​       Linux 2.4.21-27.0.2.ELSDRsmp ​    
 +***************************************************************
 +* Queued on:               ​05/​04/​2006-13:​53:​43 ​             ​
 +* Eligible since: ​         05/​04/​2006-13:​53:​43 ​             ​
 +* Starting on:             ​05/​04/​2006-14:​00:​54 ​             ​
 +***************************************************************
 +
 +
 +
 +Prologue has set TMPBATCH to /​scratch/​penel111.ccpl0379
 +Compresse le fichier de sortie /​scratch/​penel111.ccpl0379/​pan.blast
 +Copie le fichier de sortie
 +
 +
 +***************************************************************
 +* User:                    penel                            ​
 +* Group: ​                  ​biometr ​                         ​
 +* Jobname: ​                ​mpiblast_pan ​                    
 +* JobID: ​                  ​111.ccpl0379 ​                    
 +* Class: ​                  ​I ​                               ​
 +* Worker: ​                 1.ccpl0379.in2p3.fr ​             ​
 +* Operating system: ​       Linux 2.4.21-27.0.2.ELSDRsmp ​    
 +***************************************************************
 +* Queued on:               ​05/​04/​2006-13:​53:​43 ​             ​
 +* Eligible since: ​         05/​04/​2006-13:​53:​43 ​             ​
 +* Started on:              05/​04/​2006-14:​00:​53 ​             ​
 +* Ended on:                05/​04/​2006-14:​07:​06 ​             ​
 +* with status: ​            ​ENDED ​                           ​
 +***************************************************************
 +* Parallel type:           ​MPICH ​                           ​
 +* Number of processors: ​   12                               
 +* MPPM:                    N                                ​
 +***************************************************************
 +* Elapsed time:            0:​06:​13 ​                         ​
 +* CPU total real:          0:​02:​58 ​                         ​
 +*     total normalized: ​   0:40:03 (time limit: 111:​06:​40)  ​
 +*     ​system real:         ​0:​00:​17 ​                         ​
 +* SPOOL (stdout&​err): ​     20 KB                            ​
 +* SCRATCH: ​                0 MB                             
 +* VIRTUAL STORAGE: ​        246 MB                           
 +* XTAGED: ​                 0 MB                             
 +* CPU Rate Raw (CPU/​elaps):​03 %                             
 +*          Corrected: ​     03 %                             
 +* IO Rate (xtage/​CPU): ​    0 KB/​second ​                     ​
 +***************************************************************
 +
 +</​code>​
 +D'ou viennent et que siginifie les erreurs?\\
 +On decompresse le fichier blast résutat, il a l'air correct. ​
 +====  Comparaison avec un BLAST normal ​ ====
 +
 +Dans un autre repertoire on fait:
 +<​code>​
 +>​formatdb -i pan
 +>​blastall -p t -p blastp -m 8 -d pan -i pan  -o pan_blast_non_paralle
 +[blastall] WARNING: ​ [000.000] ​ Q7YQD0_PANTR:​ SetUpBlastSearch failed.
 +[blastall] ERROR: ​ [000.000] ​ Q7YQD0_PANTR:​ BLASTSetUpSearch:​ Unable to calculate Karlin-Altschul params, check query sequence
 +[blastall] WARNING: ​ [000.000] ​ Q7YQD1_PANTR:​ SetUpBlastSearch failed.
 +[blastall] ERROR: ​ [000.000] ​ Q7YQD1_PANTR:​ BLASTSetUpSearch:​ Unable to calculate Karlin-Altschul params, check query sequence
 +</​code>​
 +On obtient le même type d'​erreur.\\
 +Comparaison des résultats:
 +<​code>​
 +>ls -lh pan_blast_non_paralle ​
 +-rw-r--r-- ​   1 penel    biometr ​     7.0M May  4 14:22 pan_blast_non_paralle
 +>ls -lh ../​pan/​pan.blast ​
 +-rw-r--r-- ​   1 penel    biometr ​     6.5M May  4 14:07 ../​pan/​pan.blast
 +</​code>​
 +On observe des différénces au niveau des scores (et du format).\\
 +BLASTclassique:​
 +<​code>​
 +1A01_PANTR Q549C1_PANTR 100.00 365 0 0 1 365 1 365 0.0  671
 +Q549C1_PANTR 1A01_PANTR 100.00 365 0 0 1 365 1 365 0.0  671
 +</​code>​
 +mpiBLAST:
 +<​code>​
 +1A01_PANTR Q549C1_PANTR 100.00 365 0 0 1 365 1 365 0.0 671.8
 +Q549C1_PANTR 1A01_PANTR 100.00 365 0 0 1 365 1 365 0.0 671.8
 +</​code>​
 +Il ya 110872 lignes dans la sortie BLAST classique et seulement 107924 dans la sortie de mpiBLAST.
 +=====  Exemples d'​utilisation ​ =====
 +
 +
 +====  Test sur Hovergen - séquences de souris ​ ====
 +
 +On va travailler dans GROUP_DIR, dans le repertoire suivant :
 +<​code>​
 +>/​afs/​in2p3.fr/​group/​biometr/​blast1/​test_simon/​mpiblast/​hovergen
 +</​code>​
 +On récupere toutes les séquences protéique de hovergen sous le format FASTA dans le fichier "​hoverprot"​ avec le programme //​raa_query//​ . On récupere aussi les séquences de souris dans hovergen: fichier FASTA mus. 
 +===  Essayons de génerer la banque BLAST  ===
 +
 +On a créée les répertoire "​local"​ et "​shared"​. Mais je n'ai pas mis de fichier .ncbirc dans le repertoire.
 +<​code>​
 +>source /​usr/​local/​products/​mpi/​mpi_env_mpich.csh
 +>​mpiformatdb -N 30 -i hoverprot
 +</​code>​
 +On obtient:
 +<​code>​
 +Reading input file
 +Done, read 2156374 lines
 +Reordering 294410 sequence entries
 +Database type unspecified,​ assuming protein
 +Breaking hoverprot (103 MB) into 30 fragments
 +Executing: formatdb -i /​tmp/​reorderZHX8fU -p T -N 30 -n /​afs/​in2p3.fr/​group/​biometr/​blast2/​rep_mpiblast/​shared/​hoverprot -o T 
 +Removed /​tmp/​reorderZHX8fU
 +Created 30 fragments.
 +</​code>​
 +Ca a marché. ​
 +===  Requête sur la banque BLAST  ===
 +
 +On va rechercher les séquences de souris dans hoverprot. On utilise le script script.csh suivant
 +<​code>​
 +>cat script.csh ​
 +#!/bin/csh
 +source /​usr/​local/​products/​mpi/​mpi_env_mpich.csh
 +setenv MPIDIR /​afs/​in2p3.fr/​group/​biometr/​blast1/​test_simon/​mpiblast/​hovergen
 +mpirun -np $BQS_PROCNUMBER -machinefile $BQS_PROCLISTPATH /​afs/​in2p3.fr/​home/​throng/​biometr/​appli/​linux/​mpiblast/​bin/​mpiblast -p blastp -m 8 -d hoverprot -i $MPIDIR/mus -o script.blast ​
 +echo "​Compresse le fichier de sortie"​
 +gzip $TMPBATCH/​script.blast
 +echo "Copie le fichier de sortie"​
 +cp $TMPBATCH/​script.blast.gz $MPIDIR/
 +</​code>​
 +Puis on exécute:
 +<​code>​
 +>setenv BQSCLUSTER pistoo
 +>qsub -N testmpiblast -l platform=LINUX,​T=400000 -l proc=32 -l ptype=MPICH script.csh
 +</​code>​
 +La banque a été découpée en 30 fragments, on va donc utiliser 30 +2 = 32 noeuds.\\
 +On obtient:
 +<​code>​
 +job testmpiblast submitted to pistoo cluster on 03/​31/​06-15:​58:​57
 +>qjob
 +user     ​jobname ​  ​status ​     time        worker ​            ​cputime prio
 +--------------------------------------------------------------------------
 +penel    testm..st STARTED ​    ​03/​31-15:​59 A.ccpl0372 ​       0/   500 1010
 +</​code>​
 +Est ce que la parallélisation marche vraiment?
 +<​code>​
 +>qjobp
 +user     ​jobname ​  ​status ​       time        ptype  worker ​         procs            cputime ​           memsize ​       scratchsize
 +----------------------------------------------------------------------------------------------------------------------------------
 +penel    testm..st RUNNING ​      ​04/​24-15:​15 MPICH  I@LINUX ​           32    12852/ 12800000 ​     927/     ​8192 ​       0/    32800
 +                                                    3.ccpl0383 ​         1    12852/ ​  ​400000 ​     121/      256        0/     1025
 +                                                    2.ccpl0354 ​         1        0/   ​400000 ​      ​26/ ​     256        0/     1025
 +                                                    3.ccpl0375 ​         1        0/   ​400000 ​      ​26/ ​     256        0/     1025
 +                                                    3.ccpl0342 ​         1        0/   ​400000 ​      ​26/ ​     256        0/     1025
 +                                                    2.ccpl0341 ​         1        0/   ​400000 ​      ​26/ ​     256        0/     1025
 +                                                    3.ccpl0382 ​         1        0/   ​400000 ​      ​26/ ​     256        0/     1025
 +                                                    3.ccpl0374 ​         1        0/   ​400000 ​      ​26/ ​     256        0/     1025
 +                                                    2.ccpl0343 ​         1        0/   ​400000 ​      ​26/ ​     256        0/     1025
 +                                                    2.ccpl0379 ​         1        0/   ​400000 ​      ​26/ ​     256        0/     1025
 +                                                    3.ccpl0385 ​         1        0/   ​400000 ​      ​26/ ​     256        0/     1025
 +                                                    2.ccpl0352 ​         1        0/   ​400000 ​      ​26/ ​     256        0/     1025
 +                                                    3.ccpl0351 ​         1        0/   ​400000 ​      ​26/ ​     256        0/     1025
 +                                                    3.ccpl0353 ​         1        0/   ​400000 ​      ​26/ ​     256        0/     1025
 +                                                    2.ccpl0347 ​         1        0/   ​400000 ​      ​26/ ​     256        0/     1025
 +                                                    3.ccpl0371 ​         1        0/   ​400000 ​      ​26/ ​     256        0/     1025
 +                                                    3.ccpl0349 ​         1        0/   ​400000 ​      ​26/ ​     256        0/     1025
 +                                                    2.ccpl0345 ​         1        0/   ​400000 ​      ​26/ ​     256        0/     1025
 +                                                    2.ccpl0376 ​         1        0/   ​400000 ​      ​26/ ​     256        0/     1025
 +                                                    2.ccpl0381 ​         1        0/   ​400000 ​      ​26/ ​     256        0/     1025
 +                                                    3.ccpl0346 ​         1        0/   ​400000 ​      ​26/ ​     256        0/     1025
 +                                                    2.ccpl0377 ​         1        0/   ​400000 ​      ​26/ ​     256        0/     1025
 +                                                    3.ccpl0378 ​         1        0/   ​400000 ​      ​26/ ​     256        0/     1025
 +                                                    3.ccpl0340 ​         1        0/   ​400000 ​      ​26/ ​     256        0/     1025
 +                                                    2.ccpl0386 ​         1        0/   ​400000 ​      ​26/ ​     256        0/     1025
 +                                                    3.ccpl0339 ​         1        0/   ​400000 ​      ​26/ ​     256        0/     1025
 +                                                    3.ccpl0373 ​         1        0/   ​400000 ​      ​26/ ​     256        0/     1025
 +                                                    3.ccpl0384 ​         1        0/   ​400000 ​      ​26/ ​     256        0/     1025
 +                                                    3.ccpl0372 ​         1        0/   ​400000 ​      ​26/ ​     256        0/     1025
 +                                                    2.ccpl0380 ​         1        0/   ​400000 ​      ​26/ ​     256        0/     1025
 +                                                    2.ccpl0344 ​         1        0/   ​400000 ​      ​26/ ​     256        0/     1025
 +                                                    2.ccpl0348 ​         1        0/   ​400000 ​      ​26/ ​     256        0/     1025
 +                                                    3.ccpl0350 ​         1        0/   ​400000 ​      ​26/ ​     256        0/     1025
 +
 +</​code>​
 +=====  Doculent obsolete ​ =====
 +
 +
 +===  Query en interactif ​ ===
 +
 +On a récupéré les sequences de cyclase sous le format fasta dans le fichier "​query.seq"​.\\
 +Le fichier machinefile contient
 +<​code>​
 +>cat machinefile ​
 +
 +ccvli02.in2p3.fr
 +ccvli01.in2p3.fr
 +ccali21.in2p3.fr
 +ccali22.in2p3.fr
 +ccali23.in2p3.fr
 +ccali24.in2p3.fr
 +</​code>​
 +On peut lancer mpiblast avec mpirun:
 +<​code>​
 +>mpirun -np 5 -machinefile machinefile ../​bin/​mpiblast -p blastp -d pan -i query.seq -o toto.blast
 +</​code>​
 +Le fichier toto.blast contient les resultats.\\
 +Le directory "​Local"​ contient maintenant les 10 fragments de la database de pan.\\
 +\\
 +En supprimant les fragments générés:
 +<​code>​
 +>mpirun -np 5 -machinefile machinefile ../​bin/​mpiblast -p blastp -d pan -i query.seq -o toto.blast --removedb
 +</​code>​
 +Le directory "​Local"​ est vide.\\
 +\\
 +**NB:** si le directory Local contenait des fragments du a un mpiblast précédent,​ ceuc ci ne sont pas éffacés.
 +=====  Questions en cours  =====
 +
 +  * Faut-il indiquer le chemin complet de l'​exécutable à mpirun ? Ca ne marche pas si on le met dans le $THRONG_DIR/​bin...
 +  * Qu'​est-ce que c'est, et où est le fichier "​mpiblast.conf"​ ?
 +  * Ou doit-on préferentiellement placer le directory Shared? AFS ou NFS?
 +  * Idem pour Local ?
 +
 +
  
  • bbe_mpiblast_-_page_en_developpement.txt
  • Dernière modification: 2016/12/16 10:15
  • (modification externe)