

Prepara tus exámenes y mejora tus resultados gracias a la gran cantidad de recursos disponibles en Docsity
Gana puntos ayudando a otros estudiantes o consíguelos activando un Plan Premium
Prepara tus exámenes
Prepara tus exámenes y mejora tus resultados gracias a la gran cantidad de recursos disponibles en Docsity
Prepara tus exámenes con los documentos que comparten otros estudiantes como tú en Docsity
Los mejores documentos en venta realizados por estudiantes que han terminado sus estudios
Estudia con lecciones y exámenes resueltos basados en los programas académicos de las mejores universidades
Responde a preguntas de exámenes reales y pon a prueba tu preparación
Consigue puntos base para descargar
Gana puntos ayudando a otros estudiantes o consíguelos activando un Plan Premium
Comunidad
Pide ayuda a la comunidad y resuelve tus dudas de estudio
Descubre las mejores universidades de tu país según los usuarios de Docsity
Ebooks gratuitos
Descarga nuestras guías gratuitas sobre técnicas de estudio, métodos para controlar la ansiedad y consejos para la tesis preparadas por los tutores de Docsity
Una introducción a la computación, su historia, conceptos básicos y el manejo de datos mediante diferentes representaciones. Se abordan los antecedentes y generalidades, la clasificación de lenguajes de programación y la representación de datos a nivel de bit y byte. Se incluyen ejemplos de códigos como ascii, ebcdic y unicode.
Tipo: Apuntes
1 / 2
Esta página no es visible en la vista previa
¡No te pierdas las partes importantes!
La computación como disciplina nace a principios de 1940 con base en la teoría de algoritmos , la lógica matemática y la aparición del concepto programa. Un programa es un conjunto de instrucciones que una vez ejecutadas realizarán una o varios tareas en una computadora Una computadora digital es un dispositivo electrónico, utilizado para procesar información y obtener resultados, capaz de ejecutar cálculos a velocidades mas rápidas de lo que pueden los humanos John von Neumann propuso un esquema con una computadora con una memoria para almacenar datos y programas. Registros : Donde se almacena la info. de los programas e instrucciones. Contador de Programa: Lee el programa y dice cual es la siguiente instrucción Unidad aritmética lógica : Realiza todas las operaciones. Unidad de control : Dirige y asigna a cada quien una función Un lenguaje de programación es un lenguaje artificial diseñado para expresar instrucciones que pueden ser ejecutadas por las computadoras.
Lenguajes de alto nivel: Son lenguajes parecidos al lenguaje humano, no expresa los algoritmos teniendo en cuenta la capacidad de las maquinas para ejecutar ordenes, sino que se utiliza teniendo en cuenta las capacidades cognitivas de los seres humanos. Lenguajes de bajo nivel: Es aquel en que sus instrucciones ejercen un control directo sobre el hardware y están condicionados por la estructura física de las computadoras que lo soportan. Son mas parecidos al lenguaje binario (lenguaje de computadora). Lenguajes Binario: Es un sistema de numeración en el que los números son representados utilizando unicamente 0's y 1's. Las computadoras trabajan internamente con este lenguaje, dependiendo del voltaje se ejecutan ciertas acciones (1=encendido, 0=apagado). Compilados: Parte de un código fuente, y lo pone en un compilador, creando un código objeto y se transforma en un programa ejecutable. Interpretados: Un programa ejecuta las instrucciones directa. una x una. Manera de ejecutarse: Imperativos: Indican como hay que hacer la tarea. Declarativos: Indican que tarea hay que hacer. Manera de abordar la tarea: Estructurado: Divide el problema en partes mas pequeños. Orientada a objetos: Sistema de clases y objetos siguiendo el mundo real. Funcional: Evaluación de funciones matemat. Logico: Tareas expresadas por logica formal matematica. Manera al paradigma de programación:
Para el manejo adecuado de datos en una computadora digital, se implemento una representación uniforme de los datos. Estas representación se conoce como Patrón de Bits. BIT : Unidad mínima de almacenamiento en las computadoras y representa dos estados (1, 0).
Patrón de 8 bits mediante el cual se mide el tamaño de una memoria o de otros dispositivos de almacenamiento. ¿Cuántos bits se necesitan en un patrón para representar un símbolo? Dependiendo de la cantidad de bits que se tengan disponibles. longitud del Símbolos patrón de bits representados 1 2 2 4 3 8 4 16 Existen cadenas de bits que representan símbolos de texto, numéricos, etc. Código ASCII : American Standard Code for Information Interchange 1967. Este código utiliza 7 bits para cada símbolo. Codificación EBCDIC : Extended Binary Coded Decimal Interchange Code, para computadoras IBM, compuesto de 8 bits para cada símbolo. UNICODE : Estándar internacional que se creó para unificar criterios y poderse ocupar a nivel mundial. Objetivos: Universalidad, eficiencia y no ambigüedad. Mantenido por el Unicode Technical Committee (UTC) junto con ISO/IEC. Formatos para representacion de simbolos: UTF-8, UTF-16, UTF-32. Bit: 0 1 Bits: 01 111 1010100111 Byte: [10011010] Bytes: [11001100] [10100101] Cara sonriente con la boca abierta : U+1F Cara sonriente guiñando un ojo : U+1F Cara sonriente con la boca abierta : U+1F60D