jueves, 13 de febrero de 2014


   Gestión técnica 
La gestión técnica es cuando una persona o varias hacen ideas para tener algo nuevo, ya sea tecnología o cualquier cosa.
http://queasa.blogspot.mx/2012/03/la-la-definición-de-gestión-técnica-que.html


Gestión técnica 
La gestión técnica comprende todas las actividades vinculadas a la definición del estado físico del vehículo devuelto. Consiste principalmente en una evaluación (que debe ser completa) y una valoración de los daños y averías observados en el vehículo al ser devuelto. También se ofrece la gestión técnica de los Company Cars y flotas de prensa.
La evaluación comprende, en particular, la verificación del kilometraje y la verificación del funcionamiento de ciertos equipos y dispositivos como la presencia de elementos “desmontables”. Puede incluir fotos (especialmente en el caso del alquiler a largo plazo).
La evaluación técnica permite:
    cuantificar el importe de los gastos de rehabilitación necesarios para que el vehículo quede en estado estándar
http://lascomputadrorasyelmedioambiente.blogspot.mx/2012/03/gestión-tecnica.html

                                                              

                                                              Gestión técnica

Como sabemos, la definición de gestión se encuentra vinculada en un lazo directo con la planificación de todos los elementos que afectaran e influirán en los proyectos que la empresa decida desarrollar a lo largo de su ejercicio.

A su vez, la definición de gestion también comprende a la gestión financiera y contable, ya que las mismas serán las encargadas de que dichos proyectos puedan concretarse. Ahora bien, la gestión en este sentido debe ser quien se ocupe de analizar todos los recursos que a la compañía le resultan más convenientes económicamente, es decir, que, entre todos los que se presentan, la gestión seleccionara aquel que le otorgue más seguridad de utilidades. Otro de los factores que de los factores que se relacionan con la definición de gestión cuando ésta es aplicada a la planificación empresaria, es sin duda el hecho de riesgo que se toma. Cuando una empresa une la financiación a la planificación y posterior gestión de un proyecto, la misma está asumiendo un riesgo que se divide en un 50% de éxito y un 50% de fracaso, lo que nos indica que, en un principio, todo proyecto tiene tantas posibilidades de éxito como de fracaso. 
                                 http://gestintecnica.blogspot.mx/





Gestión técnica 

Gestionar es coordinar todos los recursos disponibles (humanos y materiales) para conseguir objetivos específicos. Tiene que ver con la 
planeación, organización, dirección y control de los procesos técnicos, y abarca: 
 La selección de las acciones a desarrollar. 
 Los materiales, tipos de energía que se emplearán, herramientas y máquinas a utilizar. 
 La administración de los recursos para el desarrollo de los procesos técnicos. 
 La dirección y control de las acciones. 

Otra definición señala que la gestión consiste en administrar y organizar los recursos para obtener, por medio de un proceso técnico, el producto 
o servicio que requiere. Es decir, tiene como propósito organizar al grupo humano para la planificación y ejecución del proceso técnico, 
administrar los recursos, los espacios de trabajo, los materiales que se requieren y el tiempo en el que se desarrollan las acciones. Además, se 
ocupa de establecer contacto con los proveedores de insumos y con los potenciales clientes o beneficiarios de los productos o servicios que se 
puedan obtener.
http://recursos.salonesvirtuales.com/assets/bloques//gestic3b3n-tc3a9cnica1.pdf





jueves, 28 de noviembre de 2013

jueves, 21 de noviembre de 2013


Ventajas y desventajas en el uso de redes sociales, centros de opinión, intercambio de información y riesgos de no ser usuario de vida en la sociedad





 El uso de las redes sociales se ha convertido en un factor fundamental en el proceso desocialización entre jóvenes y, actualmente entre diferentes empresas. También se han transformado en símbolos de pertenenciatanto para los individuos como para las compañías. Se han transformado en símbolos de pertenencia, sitios dónde las personas y las empresas comparten intereses en común como noticias, música entre otros. 

A partir del 2001 surgen los primeros sitios para jóvenes, los cuales no demoraron en volverse populares como My Space,FriendsterTribe, este último muy usado en Estados Unidos ya  que tenía como beneficio común entre los usuarios la música, transformándose en una muy buena herramienta para que músicos independientes dieran a conocer sus propuestas. Luego apareció  Facebook que actualmente es la red social número uno y que nació como parte de un proyecto para mantener contacto entre universitarios. Más tarde, surge el Twitter que en poco tiempo se ha convertido en una red social muy popular, con más de 100 millones de usuarios en el mundo. Hoy en día formar parte de una Red Social se ha convertido en una necesidad, las personas necesitan estar actualizadas y presentes socialmente. Es muy fácil integrarse a una red, únicamente hay que dar de alta nuestro perfil y comenzar a armarlo,  invitando a algunas de nuestras amistades. Pero como todo tiene ventajas y desventajas y el uso de estos nuevos medios de comunicación no son la excepción. A continuación mencionaremos las ventajas y desventajas de crear un perfil social.Perfil PersonalVentajas •    Reencuentro con conocidos. •    Oportunidad de integrarse a Flashmobs (reuniones breves vía online con fines lúdicos y de entretenimiento con el propósito de movilizar a miles de personas) •    Favorecen contactos afectivos nuevos como: búsqueda de pareja, amistad o compartir intereses sin fines de lucro. •    Compartir momentos especiales con las personas cercanas a nuestras vidas. •    Atraviesan fronteras geográficas y sirven para conectar gente sin importar la distancia. •    Perfectas para establecer conexiones con el mundo profesional. •    Nos mantienen actualizados acerca de temas de interés, además permiten asistir a eventos, participar en actos y conferencias. •    La comunicación puede ser en tiempo real. •    Pueden generar movimientos masivos de solidaridad ante una situación de crisis. •    Dinámicas para producir contenido en Internet. Desventajas•    Son peligrosas si no se configura la privacidad correctamente, pues exhiben nuestra vida privada. •    Pueden darse casos de falsificación de personalidad. •    Falta en el control de datos. •    Pueden ser adictivas e insumir gran parte de nuestro tiempo, pues son ideales para el ocio. •    Pueden apropiarse de todos los contenidos que publicamos. •    Pueden ser utilizadas por criminales para conocer datos de sus víctimas en delitos: como el acoso y abuso sexual, secuestro, tráfico de personas, etc. Perfil Empresarial o GrupalVentajas •    Útiles para la búsqueda de personal. •    Son utilizadas en forma de Intranet. •    Permiten realizar foros y conferencias online •    Han transformado la manera de hacer marketing, generando una mayor segmentación de medios e interactividad con sus consumidores. •    El consumidor puede interactuar y conocer las características de los productos, además de promociones, noticias de la empresa, lanzamiento de nuevos productos, etc. •    En tiempos de crisis es una muy buena forma de hacer mercadotecnia y publicidad a bajos costos. •    Excelente fuente de información para conocer las necesidades del cliente y tenerlo en cuenta para estrategias futuras.•    Útil para mejorar el servicio al cliente, además permite establecer relaciones con clientes.Desventajas •    Los malos comentarios generados en la red pueden proporcionar  una mala imagen de la empresa. •    Absorben el tiempo de los trabajadores y los agobian con el uso de tantas tecnologías. •    Los empleados pueden abusar de estas plataformas o usarlas con fines no profesionales. •    La capacidad para enviar mensajes es poca y muchas veces se abrevia demasiado la información.•    El ruido que se genera dentro de las redes puede ser excesivo por lo que es muy difícil mantener a un público fiel.•    Algunos usuarios se dedican a hacer SPAM. 

















































martes, 19 de noviembre de 2013

La década de 1940

A finales de la década de 1940, con lo que se podría considerar la aparición de la primera generación de computadoras, se accedía directamente a la consola de la computadora desde la cual se actuaba sobre una serie de micro interruptores que permitían introducir directamente el programa en la memoria de la computadora (en realidad al existir tan pocas computadoras todos podrían considerarse prototipos y cada constructor lo hacía sin seguir ningún criterio predeterminado). Por aquel entonces no existían los sistemas operativos, y los programadores debían interinar con el hardware del computador sin ayuda externa. Esto hacía que el tiempo de preparación para realizar una tarea fuera considerable. Además para poder utilizar la computadora debía hacerse por turnos. Para ello, en muchas instalaciones, se rellenaba un formulario de reserva en el que se indicaba el tiempo que el programador necesitaba para realizar su trabajo. En aquel entonces las computadoras eran máquinas muy costosas lo que hacía que estuvieran muy solicitadas y que sólo pudieran utilizarse en periodos breves de tiempo. Todo se hacía en lenguaje de máquina.
La década de 1950 (Sistema Batch)

A principios de los años 50 con el objeto de facilitar la interacción entre persona y computadora, los sistemas operativos hacen una aparición discreta y bastante simple, con conceptos tales como el monitor residente, el proceso por lotes y el almacenamiento temporal.
Monitor residente
Su funcionamiento era bastante simple, se limitaba a cargar los programas a memoria, leyéndolos de una cinta o de tarjetas perforadas, y ejecutarlos. El problema era encontrar una forma de optimizar el tiempo entre la retirada de un trabajo y el montaje del siguiente.
Procesamiento por lotes
Como solución para optimizar, en una misma cinta o conjunto de tarjetas, se cargaban varios programas, de forma que se ejecutaran uno a continuación de otro sin perder apenas tiempo en la transición.
Almacenamiento temporal
Su objetivo era disminuir el tiempo de carga de los programas, haciendo simultánea la carga del programa o la salida de datos con la ejecución de la siguiente tarea. Para ello se utilizaban dos técnicas, el buffering y el espoline.
La década de 1960

En los años 60 se produjeron cambios notorios en varios campos de la informática, con la aparición del circuito integrado la mayoría orientados a seguir incrementando el potencial de los ordenadores. Para ello se utilizaban técnicas de lo más diversas.
Multiprogramación
En un sistema multiprogramado la memoria principal alberga a más de un programa de usuario. La CPU ejecuta instrucciones de un programa, cuando el que se encuentra en ejecución realiza una operación de E/S; en lugar de esperar a que termine la operación de E/S, se pasa a ejecutar otro programa. Si éste realiza, a su vez, otra operación de E/S, se mandan las órdenes oportunas al controlador, y pasa a ejecutarse otro. De esta forma es posible, teniendo almacenado un conjunto adecuado de tareas en cada momento, utilizar de manera óptima los recursos disponibles.
Tiempo compartido
Artículo principal: Tiempo compartido
En este punto tenemos un sistema que hace buen uso de la electrónica disponible, pero adolece la falta de interactividad; para conseguirla debe convertirse en un sistema multiusuario, en el cual existen varios usuarios con un terminal en línea, utilizando el modo de operación de tiempo compartido. En estos sistemas los programas de los distintos usuarios residen en memoria. Al realizar una operación de E/S los programas ceden la CPU a otro programa, al igual que en la multiprogramación. Pero, a diferencia de ésta, cuando un programa lleva cierto tiempo ejecutándose el sistema operativo lo detiene para que se ejecute otra aplicación.
Tiempo real[editar · editar código]
Estos sistemas se usan en entornos donde se deben aceptar y procesar en tiempos muy breves un gran número de sucesos, en su mayoría externos al ordenador. Si el sistema no respeta las restricciones de tiempo en las que las operaciones deben entregar su resultado se dice que ha fallado. El tiempo de respuesta a su vez debe servir para resolver el problema o hecho planteado. El procesamiento de archivos se hace de una forma continua, pues se procesa el archivo antes de que entre el siguiente, sus primeros usos fueron y siguen siendo en telecomunicaciones.
Multiprocesador
Diseño que no se encuentran en ordenadores monoprocesador. Estos problemas derivan del hecho de que dos programas pueden ejecutarse simultáneamente y, potencialmente, pueden interferirse entre sí. Concretamente, en lo que se refiere a las lecturas y escrituras en memoria. Existen dos arquitecturas que resuelven estos problemas:
La arquitectura NUMA, donde cada procesador tiene acceso y control exclusivo a una parte de la memoria. La arquitectura SMP, donde todos los procesadores comparten toda la memoria. Esta última debe lidiar con el problema de la coherencia de caché. Cada microprocesador cuenta con su propia memoria cache local. De manera que cuando un microprocesador escribe en una dirección de memoria, lo hace únicamente sobre su copia local en caché. Si otro microprocesador tiene almacenada la misma dirección de memoria en su caché, resultará que trabaja con una copia obsoleta del dato almacenado.
Para que un multiprocesador opere correctamente necesita un sistema operativo especialmente diseñado para ello. La mayoría de los sistemas operativos actuales poseen esta capacidad.
La década de 1970

Sistemas operativos desarrollados[editar · editar código]
Además del Atlas Supervisor y el OS/360, los años 1970 marcaron el inicio de UNIX, a mediados de los 60 aparece Multics, sistema operativo multiusuario - multitarea desarrollado por los laboratorios Bell de AT&T y Unix, convirtiéndolo en uno de los pocos SO escritos en un lenguaje de alto nivel. En el campo de la programación lógica se dio a luz la primera implementación de Prolog, y en la revolucionaria orientación a objetos, Smalltalk.
Inconvenientes de los Sistemas operativos
Se trataba de sistemas grandes, complejos y costosos, pues antes no se había construido nada similar y muchos de los proyectos desarrollados terminaron con costos muy por encima del presupuesto y mucho después de lo que se marcaba como fecha de finalización. Además, aunque formaban una capa entre el hardware y el usuario, éste debía conocer un complejo lenguaje de control para realizar sus trabajos. Otro de los inconvenientes es el gran consumo de recursos que ocasionaban, debido a los grandes espacios de memoria principal y secundaria ocupados, así como el tiempo de procesador consumido. Es por esto que se intentó hacer hincapié en mejorar las técnicas ya existentes de multiprogramación y tiempo compartido.
Características de los nuevos sistemas
Sistemas operativos desarrollados
MULTICS (Multiplexed Information and Computing Service): Originalmente era un proyecto cooperativo liderado por Fernando Corbató del MIT, con General Electric y los laboratorios Bell, que comenzó en los 60, pero los laboratorios Bell abandonaron en 1969 para comenzar a crear el sistema UNIX. Se desarrolló inicialmente para el mainframe GE-645, un sistema de 36 bits; después fue soportado por la serie de máquinas Honeywell 6180.
Fue uno de los primeros. Además, los traducía a instrucciones de alto nivel destinadas a BDOS.
BDOS (Basic Disk Operating System): Traductor de las instrucciones en llamadas a la BIOS.
CP/M: (Control Program for Microcomputers) fue un sistema operativo desarrollado por Gary Kildall para el microprocesador Intel 8080 (los Intel 8085 y Zilog Z80 podían ejecutar directamente el código del 8080, aunque lo normal era que se entregara el código recompilado para el microprocesador de la máquina). Se trataba del sistema operativo más popular entre las computadoras personales en los años 70. Aunque fue modificado para ejecutarse en un IBM PC, el hecho que IBM eligiera MS-DOS, al fracasar las negociaciones con Digital Research, hizo que el uso de CP/M disminuyera hasta hacerlo desaparecer. CP/M originalmente significaba Control Program/Monitor. Más tarde fue renombrado a Control Program for Microcomputers. En la época, la barra inclinada (/) tenía el significado de "diseñado para". No obstante, Gary Kildall redefinió el significado del acrónimo poco después. CP/M se convirtió en un estándar de industria para los primeros micro-ordenadores.
El hecho de que, años después, IBM eligiera para sus PC a MS-DOS supuso su mayor fracaso, por lo que acabó desapareciendo.
La década de 1980

Con la creación de los circuitos LSI -integración a gran escala-, chips que contenían miles de transistores en un centímetro cuadrado de silicio, empezó el auge de los ordenadores personales. En éstos se dejó un poco de lado el rendimiento y se buscó más que el sistema operativo fuera amigable, surgiendo menús, e interfaces gráficas. Esto reducía la rapidez de las aplicaciones, pero se volvían más prácticos y simples para los usuarios. En esta época, siguieron utilizándose lenguajes ya existentes, como Smalltalk o C, y nacieron otros nuevos, de los cuales se podrían destacar: C++ y Eiffel dentro del paradigma de la orientación a objetos, y Haskell y Miranda en el campo de la programación declarativa. Un avance importante que se estableció a mediados de la década de 1980 fue el desarrollo de redes de computadoras personales que corrían sistemas operativos en red y sistemas operativos distribuidos. En esta escena, dos sistemas operativos eran los mayoritarios: MS-DOS (Micro Soft Disk Operating System), escrito por Microsoft para IBM PC y otras computadoras que utilizaban la CPU Intel 8088 y sus sucesores, y UNIX, que dominaba en los ordenadores personales que hacían uso del Motorola 68000.
Mac OS]
Artículo principal: Macintosh
El lanzamiento oficial del ordenador Macintosh en enero de 1984, al precio de US $1,995 (después cambiado a $2,495 dólares)[1]. Incluía su sistema operativo Mac OS cuya características novedosas era una GUI (Graphic User Interface), Multitareas y Mouse. Provocó diferentes reacciones entre los usuarios acostumbrados a la línea de comandos y algunos tachando el uso del Mouse como juguete.
MS-DOS]
Artículo principal: MS-DOS
En 1981 Microsoft compró un sistema operativo llamado QDOS que, tras realizar unas pocas modificaciones, se convirtió en la primera versión de MS-DOS (Micro Soft Disk Operating System). A partir de aquí se sucedieron una serie de cambios hasta llegar a la versión 7.1, versión 8 en Windows Milenium, a partir de la cual MS-DOS dejó de existir como un componente del Sistema Operativo.
Microsoft Windows
Artículo principal: Microsoft Windows
A mediados de los años 80 se crea este sistema operativo, pero no es hasta la salida de (Windows 95) que se le puede considerar un sistema operativo, solo era una interfaz gráfica del (MS-DOS) en el cual se disponía de unos diskettes para correr los programas. Hoy en día es el sistema operativo más difundido en el ámbito doméstico, aunque también hay versiones para servidores como Windows NT. (Microsoft) ha diseñado también algunas versiones para superordenadores, pero sin mucho éxito. Años después se hizo el (Windows 98) que era el más eficaz de esa época. Después se crearía el sistema operativo de (Windows ME) (Windows Millenium Edition) aproximadamente entre el año 1999 y el año 2000. Un año después se crearía el sistema operativo de (Windows 2000) en ese mismo año. Después le seguiría el sistema operativo más utilizado en la actualidad, (Windows XP) y otros sistemas operativos de esta familia especializados en las empresas. (Windows 7) (Windows Seven) salió al mercado el 22 de octubre del 2009, dejó atrás a (Windows Vista), que tuvo innumerables críticas durante el poco tiempo que duró en el mercado. El más reciente hasta la fecha es (Windows 8) (Windows Eight) lanzado en octubre de 2012.
La década de 1990]

GNU/Linux
Artículo principal: GNU/Linux
Este sistema al parecer es una versión mejorada de Unix, basado en el estándar POSIX, un sistema que en principio trabajaba en modo comandos. Hoy en día dispone de Ventanas, gracias a un servidor gráfico y a gestores de ventanas como KDE, GNOME entre muchos. Recientemente GNU/Linux dispone de un aplicativo que convierte las ventanas en un entorno 3D como por ejemplo Beryl o Compiz. Lo que permite utilizar Linux de una forma visual atractiva.
Existen muchas distribuciones actuales de Gnu/Linux (Debian, Fedora, Ubuntu, Slackware, etc.) donde todas ellas tienen en común que ocupan el mismo núcleo Linux. Dentro de las cualidades de Gnu/Linux se puede caracterizar el hecho de que la navegación a través de la web es sin riegos de ser afectada por virus, esto debido al sistema de permisos implementado, el cual no deja correr ninguna aplicación sin los permisos necesarios, permisos que son otorgados por el usuario. A todo esto se suma que los virus que vienen en dispositivos desmontables tampoco afectan al sistema, debido al mismo sistema de permisos.
Reactos
Artículo principal: Reactos
ReactOS (React Operating System) es un sistema operativo de código abierto destinado a lograr la compatibilidad binaria con aplicaciones de software y controladores de dispositivos hechos para Microsoft Windows NT versiones 5.x en adelante (Windows XP y sus sucesores).

En 1996 un grupo de programadores y desarrolladores de software libre comenzaron un proyecto llamado FreeWin95 el cual consistía en implementar un clon de Windows 95. El proyecto estuvo bajo discusión por el diseño del sistema ya habiendo desarrollado la capa compatible con MS-DOS, pero lamentablemente esta fue una situación que no se completó. Para 1997 el proyecto no había lanzado ninguna versión, por lo que los miembros de éste, coordinados por Jason Filby, pudieron revivirlo. Se decidió cambiar el núcleo del sistema compatible con MS-DOS y de ahora en adelante basarlo en uno compatible con Windows NT, y así el proyecto pudo seguir adelante con el nombre actual de Reactos, que comenzó en febrero de 1998, desarrollando las bases del kernel y algunos diversos básicos.
Cambios en los procesadores de texto desde sus inicios hasta la época actual.
Un procesador de texto es una aplicación informática destinada a la creación o modificación de documentos escritos por medio de una computadora. Representa una alternativa moderna a la antigua máquina de escribir, siendo mucho más potente y versátil que ésta.
Funciones
Los procesadores de textos nos brindan una amplia gama de funcionalidades, ya sean tipográficas, idiomáticas u organizativas, con algunas variantes según el programa de que se disponga. Como regla general, todos pueden trabajar con distintos tipos y tamaños de letra, formato de párrafo y efectos artísticos; además de brindar la posibilidad de intercalar o superponer imágenes u otros objetos gráficos dentro del texto.
Como ocurre con la mayoría de las herramientas informáticas, los trabajos realizados en un procesador de textos pueden ser guardados en forma de archivos, usualmente llamados documentos, así como impresos a través de diferentes medios.
Los procesadores de texto también incorporan desde hace algunos años correctores de ortografía y gramática, así como diccionarios multilingües y de sinónimos que facilitan en gran medida la labor de redacción.
Los procesadores de textos han sido una de las primeras aplicaciones que se le dieron a los primeros ordenadores.
 Los programadores tenían que comunicarse con las máquinas de una forma muy especial y al mismo tiempo complicada, por medio de tarjetas perforadas, códigos extraños... .Con el paso del tiempo los mismos programadores diseñaron una aplicación que les permitiera programar de forma más inteligible, o sea escribiendo comando (ordenes) en forma de texto, con lo cual la programación podía se "legible". Así nacen los primeros editores de textos. Estos van cobrando tal uso que empresas de software diseñan estos editores, cada vez de forma más parecida a una máquina de escribir, y que en poquísimo tiempo superan a éstas con creces.
 CARACTERÍSTICAS Y TIPOS DEL PROCESADOR DE TEXTOS
·         MICROSOFT WORD: De todos los procesadores de texto conocidos hasta el momento, el del paquete Microsoft Office se ha convertido en poco menos que un estándar de referencia casi obligada, dado el elevado porcentaje de usuarios que lo han instalado en su ordenador y lo utilizan.
·         LOTUS WORD PRO: Una de las alternativas más populares a Microsoft Word es este procesador de textos, incluido en el paquete de software de escritorio de Lotus. Para gustos se pintan colores, pero lo cierto es que los usuarios que se decanten por este producto no estarán haciendo una mala elección.
·         WORD PERFECT: No podía faltar el tercero en discordia, que en su día llegó a ser el más popular de su género entre los usuarios, hasta mediados de los noventa. El procesador de textos de la suite de Corel presenta un despliegue de innovadoras características que demuestran el interés por parte de sus promotores en volver a hacer de este programa un producto puntero capaz de competir en el mercado con Microsoft Word.
 ·         WORD PAD: Instalado por defecto en todas las versiones de los sistemas operativos de Windows, se le podría considerar el "hermano pequeño" de Microsoft Word. Es la opción ideal para aquellos usuarios que necesitan de forma esporádica un procesador con el que dar cierto estilo estético a sus escritos, sin buscar un acabado de apariencia profesional ni excesivas florituras ornamentales.
·         BLOCK DE NOTAS: También presente por defecto en todas las instalaciones del sistema de Windows, independientemente de la versión, este programa se muestra como la opción ideal para usuarios austeros. Al tratarse de una aplicación de posibilidades reducidas, no tendrán que familiarizarse con un complejo entorno lleno de funciones que nunca van a utilizar.
·         PARA MACINTOSH: Los promotores de procesadores de texto no han discriminado a los usuarios de Mac Os, ni mucho menos: la propia Microsoft se encarga de portar todas las versiones de Word a los ordenadores de la manzana.

















jueves, 14 de noviembre de 2013

Historia de la escritura
Se suele decir que la historia de una civilización comienza con la llegada de la escritura, ya que le permite comenzar a tener registros históricos, comunicarse entre la población y facilitar los complejos procesos de la administración y el comercio. Ya aparecieron precursores de la escritura en época prehistórica en forma de pinturas y petroglifos en madera y roca. Aunque se usaban para ritos religiosos, algunos petroglifos neolíticos ya eran herramienta de comunicación, por ejemplo en Escandinava eran útiles para delimitar territorios entre tribus.  También se han encontrado lo que parecen mapas cartográficos y astronómicos.

Para realizar sus libros existieron desde procesos artesanales hasta procesos industriales.
Tradición COPISTA
Copista es la palabra que designa a quien reproduce libros a mano. De ahí su sinónimo, amanuense.
Destaca su labor en la difusión del libro hasta la aparición de la imprenta de tipos móviles en el mundo occidental, a mediados del siglo XV. Un copista experimentado era capaz de escribir de dos a tres folios por día. Escribir un manuscrito completo ocupaba varios meses de trabajo. Esto sólo en lo que se refiere a la escritura del libro, que posteriormente habían de ilustrar los iluminadores, o encargados de dibujar las miniaturas e iniciales miniadas (de minium, en latín, sustancia que producía el color rojo de la tinta, el más habitual en estas ilustraciones), en los espacios en blanco que dejaba el copista.
Los utensilios más habituales que utilizaba el copista eran: penna (la pluma o péñola),rasorium o cultellum (raspador) y atramentum (tinta).
La técnica empleada era sujetar la péñola con la mano derecha y el raspador con la izquierda, que le servía tanto para corregir los errores en la escritura como para subsanar las irregularidades (arrugas, desperfectos) del pergaminovitela o papel, este último usado en Occidente a partir del siglo XIV.

IMPRENTA
La imprenta es un método mecánico de reproducción de textos e imágenes sobre papel o materiales similares, que consiste en aplicar una tinta, generalmente oleosa, sobre unas piezas metálicas (tipos) para transferirla al papel por presión. Aunque comenzó como un método artesanal, supuso la primera revolución cultural. 
1.   El concepto de impresión es más amplio pues supone la evolución de diversas tecnologías que hoy hacen posible hacerlo mediante múltiples métodos de impresión y reproducción. Como la flexografía, la serigrafía, el Huecograbado, el alto grabado, la fotografía electrolítica, la fotolitografía, la litografía, la impresión offset, la xerografía y los métodos digitales actuales.La imprenta fue inventada por Johannes Gutenberg
 


DOCUMENTOS ELECTRÓNICOS
Se aborda el concepto de documento y su aplicación al documento electrónico, estableciendo las fortalezas y debilidades de dicha especie documental en comparación al documento en soporte papel. También se analiza el concepto de prueba literal y, en relación a él, la posibilidad que tiene el documento electrónico de cumplir las exigencias que la legislación civil hace de escritura y suscripción documental.
Concepto de documento
La noción de documento no es unívoca, sino que a la voz se vinculan diversos significados pero, todos ellos relacionados, por la cual podemos afirmar que se trata de un término análogo. Los diversos significados atribuidos a la noción documental van desde acepciones genéricas y omnicomprensivas de diversas realidades, hasta otras mucho más específicas, vinculadas a aspectos determinados de la realidad jurídica.
En el ámbito jurídico, dentro de los exponentes clásicos de la noción amplia de documento encontramos a Carnelutti, quien entiende por documento;«una cosa representativa, o sea capaz de representar un hecho»4, o como explica el autor citado, representación es la imagen de la realidad, la que se presenta al intelecto a través de los sentidos; y, en consecuencia, documento es una cosa que sirve para representar a otra. Continúa señalando Carnelutti, que la representación de un hecho, y no la manifestación del pensamiento es la nota esencial al concepto de documento.