Siguiente: Comunicación asíncrona.
Subir: Introducción MPI.
Anterior: Bases.
  Índice General
Como ya se ha explicado, los algoritmos paralelos ejecutan llamadas a operaciones para coordinar la
comunicación en múltiples procesos.
Por ejemplo, todos los procesos pueden necesitar cooperar para invertir una matriz distribuida o para
sumar un conjunto de números distribuidos en cada proceso. Claramente, estas operaciones globales pueden ser
implementadas por un programador usando las funciones send y receive. Por conveniencia y para permitir la
optimización, MPI provee un conjunto especializado de funciones colectivas de comunicación que obtienen
operaciones de este tipo.
Ismael Olea
2004-03-22