Docsity
Docsity

Prepara tus exámenes
Prepara tus exámenes

Prepara tus exámenes y mejora tus resultados gracias a la gran cantidad de recursos disponibles en Docsity


Consigue puntos base para descargar
Consigue puntos base para descargar

Gana puntos ayudando a otros estudiantes o consíguelos activando un Plan Premium


Orientación Universidad
Orientación Universidad

Introducción a la Computación: Orígenes, Lenguajes y Representación de Datos, Apuntes de Computación aplicada

Una introducción a la computación, su historia, conceptos básicos y el manejo de datos mediante diferentes representaciones. Se abordan los antecedentes y generalidades, la clasificación de lenguajes de programación y la representación de datos a nivel de bit y byte. Se incluyen ejemplos de códigos como ascii, ebcdic y unicode.

Tipo: Apuntes

2022/2023

Subido el 16/09/2022

nath.2455
nath.2455 🇲🇽

1 documento

1 / 2

Toggle sidebar

Esta página no es visible en la vista previa

¡No te pierdas las partes importantes!

bg1
EDA 1
1.1 ANTECEDENTES
Y GENERALIDADES
La computación como disciplina nace a principios de 1940 con base en la teoría
de algoritmos, la gica matemática y la aparición del concepto programa.
Un programa es un conjunto de instrucciones que una vez ejecutadas realizarán una
o varios tareas en una computadora
Una computadora digital es un dispositivo electrónico, utilizado para procesar
información y obtener resultados, capaz de ejecutar cálculos a velocidades mas
rápidas de lo que pueden los humanos
John von Neumann propuso un esquema
con una computadora con una memoria
para almacenar datos y programas.
Registros: Donde se almacena la info. de
los programas e instrucciones.
Contador de Programa: Lee el programa
y dice cual es la siguiente instrucción
Unidad aritmética lógica: Realiza todas
las operaciones.
Unidad de control: Dirige y asigna a cada
quien una función
Un lenguaje de programación es un lenguaje artificial diseñado para expresar
instrucciones que pueden ser ejecutadas por las computadoras.
CLASIFICACIÓN DE LENGUAJES DE PROGRAMACIÓN
Lenguajes de alto nivel:
Son lenguajes parecidos al lenguaje
humano, no expresa los algoritmos
teniendo en cuenta la capacidad de
las maquinas para ejecutar ordenes,
sino que se utiliza teniendo en cuenta
las capacidades cognitivas de los
seres humanos.
Lenguajes de bajo nivel:
Es aquel en que sus instrucciones
ejercen un control directo sobre el
hardware y están condicionados por la
estructura física de las computadoras
que lo soportan. Son mas parecidos al
lenguaje binario (lenguaje de
computadora).
Lenguajes Binario:
Es un sistema de numeración en el que los números son representados utilizando
unicamente 0's y 1's. Las computadoras trabajan internamente con este lenguaje,
dependiendo del voltaje se ejecutan ciertas acciones (1=encendido, 0=apagado).
Compilados: Parte de
un código fuente, y lo
pone en un compilador,
creando un código
objeto y se transforma
en un programa
ejecutable.
Interpretados: Un
programa ejecuta las
instrucciones directa.
una x una.
Manera de ejecutarse:
Imperativos: Indican
como hay que hacer
la tarea.
Declarativos: Indican
que tarea hay que
hacer.
Manera de abordar la
tarea:
Estructurado: Divide
el problema en partes
mas pequeños.
Orientada a objetos:
Sistema de clases y
objetos siguiendo el
mundo real.
Funcional: Evaluación
de funciones matemat.
Logico: Tareas
expresadas por logica
formal matematica.
Manera al paradigma de
programación:
pf2

Vista previa parcial del texto

¡Descarga Introducción a la Computación: Orígenes, Lenguajes y Representación de Datos y más Apuntes en PDF de Computación aplicada solo en Docsity!

EDA 1

1.1 ANTECEDENTES

Y GENERALIDADES

La computación como disciplina nace a principios de 1940 con base en la teoría de algoritmos , la lógica matemática y la aparición del concepto programa. Un programa es un conjunto de instrucciones que una vez ejecutadas realizarán una o varios tareas en una computadora Una computadora digital es un dispositivo electrónico, utilizado para procesar información y obtener resultados, capaz de ejecutar cálculos a velocidades mas rápidas de lo que pueden los humanos John von Neumann propuso un esquema con una computadora con una memoria para almacenar datos y programas. Registros : Donde se almacena la info. de los programas e instrucciones. Contador de Programa: Lee el programa y dice cual es la siguiente instrucción Unidad aritmética lógica : Realiza todas las operaciones. Unidad de control : Dirige y asigna a cada quien una función Un lenguaje de programación es un lenguaje artificial diseñado para expresar instrucciones que pueden ser ejecutadas por las computadoras.

CLASIFICACIÓN DE LENGUAJES DE PROGRAMACIÓN

Lenguajes de alto nivel: Son lenguajes parecidos al lenguaje humano, no expresa los algoritmos teniendo en cuenta la capacidad de las maquinas para ejecutar ordenes, sino que se utiliza teniendo en cuenta las capacidades cognitivas de los seres humanos. Lenguajes de bajo nivel: Es aquel en que sus instrucciones ejercen un control directo sobre el hardware y están condicionados por la estructura física de las computadoras que lo soportan. Son mas parecidos al lenguaje binario (lenguaje de computadora). Lenguajes Binario: Es un sistema de numeración en el que los números son representados utilizando unicamente 0's y 1's. Las computadoras trabajan internamente con este lenguaje, dependiendo del voltaje se ejecutan ciertas acciones (1=encendido, 0=apagado). Compilados: Parte de un código fuente, y lo pone en un compilador, creando un código objeto y se transforma en un programa ejecutable. Interpretados: Un programa ejecuta las instrucciones directa. una x una. Manera de ejecutarse: Imperativos: Indican como hay que hacer la tarea. Declarativos: Indican que tarea hay que hacer. Manera de abordar la tarea: Estructurado: Divide el problema en partes mas pequeños. Orientada a objetos: Sistema de clases y objetos siguiendo el mundo real. Funcional: Evaluación de funciones matemat. Logico: Tareas expresadas por logica formal matematica. Manera al paradigma de programación:

EDA 1

REPRESENTACIÓN

DE DATOS

Para el manejo adecuado de datos en una computadora digital, se implemento una representación uniforme de los datos. Estas representación se conoce como Patrón de Bits. BIT : Unidad mínima de almacenamiento en las computadoras y representa dos estados (1, 0).

BYTE :

Patrón de 8 bits mediante el cual se mide el tamaño de una memoria o de otros dispositivos de almacenamiento. ¿Cuántos bits se necesitan en un patrón para representar un símbolo? Dependiendo de la cantidad de bits que se tengan disponibles. longitud del Símbolos patrón de bits representados 1 2 2 4 3 8 4 16 Existen cadenas de bits que representan símbolos de texto, numéricos, etc. Código ASCII : American Standard Code for Information Interchange 1967. Este código utiliza 7 bits para cada símbolo. Codificación EBCDIC : Extended Binary Coded Decimal Interchange Code, para computadoras IBM, compuesto de 8 bits para cada símbolo. UNICODE : Estándar internacional que se creó para unificar criterios y poderse ocupar a nivel mundial. Objetivos: Universalidad, eficiencia y no ambigüedad. Mantenido por el Unicode Technical Committee (UTC) junto con ISO/IEC. Formatos para representacion de simbolos: UTF-8, UTF-16, UTF-32. Bit: 0 1 Bits: 01 111 1010100111 Byte: [10011010] Bytes: [11001100] [10100101] Cara sonriente con la boca abierta : U+1F Cara sonriente guiñando un ojo : U+1F Cara sonriente con la boca abierta : U+1F60D