










Estude fácil! Tem muito documento disponível na Docsity
Ganhe pontos ajudando outros esrudantes ou compre um plano Premium
Prepare-se para as provas
Estude fácil! Tem muito documento disponível na Docsity
Prepare-se para as provas com trabalhos de outros alunos como você, aqui na Docsity
Os melhores documentos à venda: Trabalhos de alunos formados
Prepare-se com as videoaulas e exercícios resolvidos criados a partir da grade da sua Universidade
Responda perguntas de provas passadas e avalie sua preparação.
Ganhe pontos para baixar
Ganhe pontos ajudando outros esrudantes ou compre um plano Premium
Comunidade
Peça ajuda à comunidade e tire suas dúvidas relacionadas ao estudo
Descubra as melhores universidades em seu país de acordo com os usuários da Docsity
Guias grátis
Baixe gratuitamente nossos guias de estudo, métodos para diminuir a ansiedade, dicas de TCC preparadas pelos professores da Docsity
Fundamentos de sistemas operacionais
Tipologia: Notas de aula
1 / 18
Esta página não é visível na pré-visualização
Não perca as partes importantes!
INSTITUTO DE GEOCIÊNCIAS E CIÊNCIAS EXATAS Departamento de Estatística, Matemática Aplicada e Computação
GRUPO DE PESQUISA DEGRUPO DE PESQUISA DE APLICAÇÕES EMAPLICAÇÕES EM COMPUTAÇÃO PARALELA COMPUTAÇÃO PARALELA
(^) Concorrência: quando dois ou mais processos começaram sua execução mas não terminaram. (^) Sistema Distribuído: Processos concorrentes executados em vários elementos de processamento. (^) Paralelismo: Sistema distribuído visando à solução de um único problema.
(^) SISD (Single Instruction Single Data): Arquitetura de von Neumann; (^) SIMD (Single Instruction Multiple Data): Supercomputadores clássicos (Computadores vetoriais); (^) MISD (Multiple Instruction Single Data): O Mesmo fluxo de dados percorre um array linear de processadores (pipeline); (^) MIMD (Multiple Instruction Multiple Data): Arquiteturas formada por processadores executam instruções independentemente. Classificação de Flynn é a mais utilizada embora não seja muito abrangente.
Modelo simplificado dos conjuntos de aplicações relacionados aos tipos de arquiteturas
(^) Definir um conjunto de tarefas a serem executadas paralelamente; (^) Ativar e encerrar a execução destas tarefas; (^) Coordenar e especificar a interação entre estas tarefas. Para a execução de programas paralelos, deve haver meios de:
(^) Paralelismo Geométrico: o conjunto de dados é dividido e cada processador executa uma cópia do programa em seu conjunto de dados. (^) Paralelismo “Processor Farm”: Caracteriza-se por um processador mestre que supervisiona um grupo de processadores escravos. (^) Paralelismo Pipeline: A aplicação é dividida em tarefas específicas que são distribuídas aos processadores de forma pipeline. Há três estilos básicos de paralelismo, dependentes da plataforma de execução.
(^) PVM – Parallel Virtual Machine: é o conjunto integrado de bibliotecas e de ferramentas de software, cuja finalidade é emular um sistema computacional concorrente, heterogêneo, flexível e de propósito geral. (^) MPI – Massage Passing Interface: Padrão de interface de troca de mensagens para aplicações que utilizam computadores MIMD com memória distribuída. Há dois principais padrões de troca de mensagens:
(^) Speedup: Relação entre o tempo de execução de um processo em um único processador e a execução em p processadores. (^) Eficiência: Relação entre o speedup e número de processadores.
S p = T seq T p E = S p p