 
 
 
 
 
 
 
  
 Siguiente: Comunicación asíncrona.
 Subir: Introducción MPI.
 Anterior: Bases.
     Índice General 
        Como ya se ha explicado, los algoritmos paralelos ejecutan llamadas a operaciones para coordinar la
comunicación en múltiples procesos.
	Por ejemplo, todos los procesos pueden necesitar cooperar para invertir una matriz distribuida o para
sumar un conjunto de números distribuidos en cada proceso. Claramente, estas operaciones globales pueden ser
implementadas por un programador usando las funciones send y receive. Por conveniencia y para permitir la
optimización, MPI provee un conjunto especializado de funciones colectivas de comunicación que obtienen
operaciones de este tipo.
Ismael Olea
2004-03-22