Paralelización y speedup superlineal en supercomputadoras ejemplo con multiplicación de matrices
En este artículo se muestra cómo se obtiene speedup (aceleración) superlineal a partir de código secuencial no optimizado como resultado de la paralelización de las aplicaciones de cómputo intensivo en supercomputadoras paralelas de memoria compartida del tipo SGI Origin 2000 tal como Clementina 2....
Autores principales: | , |
---|---|
Formato: | Objeto de conferencia |
Lenguaje: | Español |
Publicado: |
2001
|
Materias: | |
Acceso en línea: | http://sedici.unlp.edu.ar/handle/10915/23314 |
Aporte de: |
id |
I19-R120-10915-23314 |
---|---|
record_format |
dspace |
institution |
Universidad Nacional de La Plata |
institution_str |
I-19 |
repository_str |
R-120 |
collection |
SEDICI (UNLP) |
language |
Español |
topic |
Ciencias Informáticas Concurrent Programming Cómputo Paralelo Rendimiento Parallel Supercomputadoras de Memoria Compartida Optimización de Código Granularidad Speedup |
spellingShingle |
Ciencias Informáticas Concurrent Programming Cómputo Paralelo Rendimiento Parallel Supercomputadoras de Memoria Compartida Optimización de Código Granularidad Speedup Tinetti, Fernando Gustavo Denham, Mónica Malén Paralelización y speedup superlineal en supercomputadoras ejemplo con multiplicación de matrices |
topic_facet |
Ciencias Informáticas Concurrent Programming Cómputo Paralelo Rendimiento Parallel Supercomputadoras de Memoria Compartida Optimización de Código Granularidad Speedup |
description |
En este artículo se muestra cómo se obtiene speedup (aceleración) superlineal a partir de código secuencial no optimizado como resultado de la paralelización de las aplicaciones de cómputo intensivo en supercomputadoras paralelas de memoria compartida del tipo SGI Origin 2000 tal como Clementina 2. Se muestra vía experimentación la principal razón por la cual se combinan el cómputo paralelo con la optimización local derivada de la paralelización para obtener speedup superlineal. Además, se muestra cómo un algoritmo orientado a las computadoras paralelas de memoria distribuida se aprovecha en el entorno de las arquitecturas paralelas de memoria compartida, siempre y cuando el rendimiento de las operaciones de pasaje de mensajes utilizadas sea apropiado. En este sentido se explica también cómo el concepto de granularidad tiene gran influencia no solamente en la frecuencia o relación cómputo-comunicación entre tareas sino también en la optimización de código local que se ejecuta en cada procesador de una máquina paralela de memoria compartida. |
format |
Objeto de conferencia Objeto de conferencia |
author |
Tinetti, Fernando Gustavo Denham, Mónica Malén |
author_facet |
Tinetti, Fernando Gustavo Denham, Mónica Malén |
author_sort |
Tinetti, Fernando Gustavo |
title |
Paralelización y speedup superlineal en supercomputadoras ejemplo con multiplicación de matrices |
title_short |
Paralelización y speedup superlineal en supercomputadoras ejemplo con multiplicación de matrices |
title_full |
Paralelización y speedup superlineal en supercomputadoras ejemplo con multiplicación de matrices |
title_fullStr |
Paralelización y speedup superlineal en supercomputadoras ejemplo con multiplicación de matrices |
title_full_unstemmed |
Paralelización y speedup superlineal en supercomputadoras ejemplo con multiplicación de matrices |
title_sort |
paralelización y speedup superlineal en supercomputadoras ejemplo con multiplicación de matrices |
publishDate |
2001 |
url |
http://sedici.unlp.edu.ar/handle/10915/23314 |
work_keys_str_mv |
AT tinettifernandogustavo paralelizacionyspeedupsuperlinealensupercomputadorasejemploconmultiplicaciondematrices AT denhammonicamalen paralelizacionyspeedupsuperlinealensupercomputadorasejemploconmultiplicaciondematrices |
bdutipo_str |
Repositorios |
_version_ |
1764820466127601669 |