Docsity
Docsity

Prepare-se para as provas
Prepare-se para as provas

Estude fácil! Tem muito documento disponível na Docsity


Ganhe pontos para baixar
Ganhe pontos para baixar

Ganhe pontos ajudando outros esrudantes ou compre um plano Premium


Guias e Dicas
Guias e Dicas

Fundamentos de sistemas operacionais, Notas de aula de Sistemas Operacionais

Fundamentos de sistemas operacionais

Tipologia: Notas de aula

2019

Compartilhado em 05/11/2019

eliney-sabino
eliney-sabino 🇧🇷

2 documentos

1 / 18

Toggle sidebar

Esta página não é visível na pré-visualização

Não perca as partes importantes!

bg1
COMPUTAÇÃO PARALELA
COMPUTAÇÃO PARALELA
UNIVERSIDADE ESTADUAL PAULISTA
INSTITUTO DE GEOCIÊNCIAS E CIÊNCIAS EXATAS
Departamento de Estatística, Matemática Aplicada e Computação
INTRODUÇÃO À
INTRODUÇÃO À
COMPUTAÇÃO PARALELA
COMPUTAÇÃO PARALELA
GRUPO DE PESQUISA DE APLICAÇÕES EM
GRUPO DE PESQUISA DE APLICAÇÕES EM
COMPUTAÇÃO PARALELA
COMPUTAÇÃO PARALELA
pf3
pf4
pf5
pf8
pf9
pfa
pfd
pfe
pff
pf12

Pré-visualização parcial do texto

Baixe Fundamentos de sistemas operacionais e outras Notas de aula em PDF para Sistemas Operacionais, somente na Docsity!

UNIVERSIDADE ESTADUAL PAULISTA

INSTITUTO DE GEOCIÊNCIAS E CIÊNCIAS EXATAS Departamento de Estatística, Matemática Aplicada e Computação

INTRODUÇÃO À INTRODUÇÃO À

COMPUTAÇÃO PARALELA COMPUTAÇÃO PARALELA

GRUPO DE PESQUISA DEGRUPO DE PESQUISA DE APLICAÇÕES EMAPLICAÇÕES EM COMPUTAÇÃO PARALELA COMPUTAÇÃO PARALELA

CONTEÚDO

 INTRODUÇÃO

 CONCEITOS BÁSICOS

 ARQUITETURAS PARALELAS

 PROGRAMAÇÃO PARALELA

 MULTICOMPUTADORES

 CONSIDERAÇÕES FINAIS

CONTEÚDO

 INTRODUÇÃO

 CONCEITOS BÁSICOS

 ARQUITETURAS PARALELAS

 PROGRAMAÇÃO PARALELA

 MULTICOMPUTADORES

 CONSIDERAÇÕES FINAIS

CONCEITOS BÁSICOS

 (^) Concorrência: quando dois ou mais processos começaram sua execução mas não terminaram.  (^) Sistema Distribuído: Processos concorrentes executados em vários elementos de processamento.  (^) Paralelismo: Sistema distribuído visando à solução de um único problema.

ARQUITETURAS PARALELAS

 (^) SISD (Single Instruction Single Data): Arquitetura de von Neumann;  (^) SIMD (Single Instruction Multiple Data): Supercomputadores clássicos (Computadores vetoriais);  (^) MISD (Multiple Instruction Single Data): O Mesmo fluxo de dados percorre um array linear de processadores (pipeline);  (^) MIMD (Multiple Instruction Multiple Data): Arquiteturas formada por processadores executam instruções independentemente. Classificação de Flynn é a mais utilizada embora não seja muito abrangente.

ARQUITETURAS PARALELAS

Modelo simplificado dos conjuntos de aplicações relacionados aos tipos de arquiteturas

CONTEÚDO

 INTRODUÇÃO

 CONCEITOS BÁSICOS

 ARQUITETURAS PARALELAS

 PROGRAMAÇÃO PARALELA

 MULTICOMPUTADORES

 CONSIDERAÇÕES FINAIS

PROGRAMAÇÃO PARALELA

 (^) Definir um conjunto de tarefas a serem executadas paralelamente;  (^) Ativar e encerrar a execução destas tarefas;  (^) Coordenar e especificar a interação entre estas tarefas. Para a execução de programas paralelos, deve haver meios de:

PROGRAMAÇÃO PARALELA

 (^) Paralelismo Geométrico: o conjunto de dados é dividido e cada processador executa uma cópia do programa em seu conjunto de dados.  (^) Paralelismo “Processor Farm”: Caracteriza-se por um processador mestre que supervisiona um grupo de processadores escravos.  (^) Paralelismo Pipeline: A aplicação é dividida em tarefas específicas que são distribuídas aos processadores de forma pipeline. Há três estilos básicos de paralelismo, dependentes da plataforma de execução.

CONTEÚDO

 INTRODUÇÃO

 CONCEITOS BÁSICOS

 ARQUITETURAS PARALELAS

 PROGRAMAÇÃO PARALELA

 MULTICOMPUTADORES

 CONSIDERAÇÕES FINAIS

MULTICOMPUTADORES

 (^) PVM – Parallel Virtual Machine: é o conjunto integrado de bibliotecas e de ferramentas de software, cuja finalidade é emular um sistema computacional concorrente, heterogêneo, flexível e de propósito geral.  (^) MPI – Massage Passing Interface: Padrão de interface de troca de mensagens para aplicações que utilizam computadores MIMD com memória distribuída. Há dois principais padrões de troca de mensagens:

 (^) Speedup: Relação entre o tempo de execução de um processo em um único processador e a execução em p processadores.  (^) Eficiência: Relação entre o speedup e número de processadores.

MULTICOMPUTADORES

S p = T seq T p E = S p p