Paralelización y speedup superlineal en supercomputadoras ejemplo con multiplicación de matrices

En este artículo se muestra cómo se obtiene speedup (aceleración) superlineal a partir de código secuencial no optimizado como resultado de la paralelización de las aplicaciones de cómputo intensivo en supercomputadoras paralelas de memoria compartida del tipo SGI Origin 2000 tal como Clementina 2....

Descripción completa

Detalles Bibliográficos
Autores principales: Tinetti, Fernando Gustavo, Denham, Mónica Malén
Formato: Objeto de conferencia
Lenguaje:Español
Publicado: 2001
Materias:
Acceso en línea:http://sedici.unlp.edu.ar/handle/10915/23314
Aporte de:
id I19-R120-10915-23314
record_format dspace
institution Universidad Nacional de La Plata
institution_str I-19
repository_str R-120
collection SEDICI (UNLP)
language Español
topic Ciencias Informáticas
Concurrent Programming
Cómputo Paralelo
Rendimiento
Parallel
Supercomputadoras de Memoria Compartida
Optimización de Código
Granularidad
Speedup
spellingShingle Ciencias Informáticas
Concurrent Programming
Cómputo Paralelo
Rendimiento
Parallel
Supercomputadoras de Memoria Compartida
Optimización de Código
Granularidad
Speedup
Tinetti, Fernando Gustavo
Denham, Mónica Malén
Paralelización y speedup superlineal en supercomputadoras ejemplo con multiplicación de matrices
topic_facet Ciencias Informáticas
Concurrent Programming
Cómputo Paralelo
Rendimiento
Parallel
Supercomputadoras de Memoria Compartida
Optimización de Código
Granularidad
Speedup
description En este artículo se muestra cómo se obtiene speedup (aceleración) superlineal a partir de código secuencial no optimizado como resultado de la paralelización de las aplicaciones de cómputo intensivo en supercomputadoras paralelas de memoria compartida del tipo SGI Origin 2000 tal como Clementina 2. Se muestra vía experimentación la principal razón por la cual se combinan el cómputo paralelo con la optimización local derivada de la paralelización para obtener speedup superlineal. Además, se muestra cómo un algoritmo orientado a las computadoras paralelas de memoria distribuida se aprovecha en el entorno de las arquitecturas paralelas de memoria compartida, siempre y cuando el rendimiento de las operaciones de pasaje de mensajes utilizadas sea apropiado. En este sentido se explica también cómo el concepto de granularidad tiene gran influencia no solamente en la frecuencia o relación cómputo-comunicación entre tareas sino también en la optimización de código local que se ejecuta en cada procesador de una máquina paralela de memoria compartida.
format Objeto de conferencia
Objeto de conferencia
author Tinetti, Fernando Gustavo
Denham, Mónica Malén
author_facet Tinetti, Fernando Gustavo
Denham, Mónica Malén
author_sort Tinetti, Fernando Gustavo
title Paralelización y speedup superlineal en supercomputadoras ejemplo con multiplicación de matrices
title_short Paralelización y speedup superlineal en supercomputadoras ejemplo con multiplicación de matrices
title_full Paralelización y speedup superlineal en supercomputadoras ejemplo con multiplicación de matrices
title_fullStr Paralelización y speedup superlineal en supercomputadoras ejemplo con multiplicación de matrices
title_full_unstemmed Paralelización y speedup superlineal en supercomputadoras ejemplo con multiplicación de matrices
title_sort paralelización y speedup superlineal en supercomputadoras ejemplo con multiplicación de matrices
publishDate 2001
url http://sedici.unlp.edu.ar/handle/10915/23314
work_keys_str_mv AT tinettifernandogustavo paralelizacionyspeedupsuperlinealensupercomputadorasejemploconmultiplicaciondematrices
AT denhammonicamalen paralelizacionyspeedupsuperlinealensupercomputadorasejemploconmultiplicaciondematrices
bdutipo_str Repositorios
_version_ 1764820466127601669