top of page
¿Preparando para el futuro? - 1
(Lenguajes de programación, aprender sobre ordenadores)

Aprender sobre ordenadores

 

Una vieja clasificación sobre el uso de los ordenadores en Educación considera tres grandes posibilidades relacionadas directamente con el aprendizaje:

. Aprender sobre ordenadores

. Aprender desde ordenadores

. Aprender con ordenadores.

 

“Aprender sobre ordenadores” ha sido en muchos casos la etapa inicial de la introducción de la informática en los centros educativos. Incluye el aprendizaje sobre cómo funciona un ordenador, su sistema operativo y cómo controlarlo, por ejemplo utilizando lenguajes de programación. Los objetivos de este aprendizaje no se referían únicamente a los propios contenidos (el funcionamiento o la programación de un ordenador) sino que se orientaban hacia el desarrollo de destrezas intelectuales como la capacidad de resolver problemas o de construir procedimientos de trabajo intelectual.

 

“Aprender desde ordenadores “ incluía los procesos en los que las máquinas “enseñaban” a los alumnos los contenidos del tipo que fueren. Inicialmente muy ligados al pensamiento asociacionista y a las máquinas de enseñar de Skinner, posteriormente han evolucionado adoptando otras concepciones del aprendizaje. De alguna manera se trata de que el ordenador asume algunas de las tareas del profesor, liberándolo de trabajo. Por ejemplo, si el programa informático asume la enseñanza de los procesos mecánicos del cálculo matemático, el profesor queda liberado para dedicarse a facilitar al alumno la comprensión de dichos procesos y su aplicación.

 

“ Aprender con ordenadores” ha supuesto en muchos casos la tercera etapa en la introducción de la Informática. El alumno utiliza ahora el ordenador como una herramienta más: lo utiliza para escribir, para pintar, para manejar la información, para realizar cálculos, para comunicarse...  La última mitad de los noventa ha vivido un auge de este uso de los ordenadores, lo que no quiere decir que no hayan dejado de utilizarse en las dos líneas anteriores.

 

Por otro lado, existe una cuarta aplicación de los ordenadores en la escuela: la gestión del centro y la gestión del aula. Esta última, aunque suficientemente conocida, es todavía hoy insuficientemente utilizada en mi opinión. Los ordenadores pueden llegar a convertirse en insustituibles herramientas para el profesor que le ayudarán a gestionar por ejemplo una evaluación continuada de sus estudiantes, no basada o no únicamente en mediciones cuantitativas sino potenciando la capacidad de análisis de los equipos para realizar valoraciones cualitativas: el profesor puede entonces seguir de cerca la evolución del alumno en numerosas facetas de su aprendizaje, incluidas por ejemplo sus relaciones sociales, no desde la perspectiva de un control, sino detectando más rápidamente situaciones de aislamiento o mejorando su atención a los alumnos más desfavorecidos.

 

En éste y los siguientes capítulos vamos a tratar estos usos de los ordenadores. Ahora vamos a concentrarnos en el primero. Y quizás lo mejor es comenzar por la historia, una historia que podemos introducir en el currículum como una fuente de enseñanzas: no se trata sólo de aprender cómo surgieron estas máquinas sino ayudar a entender cómo funcionan, concienciar del sentido de trabajo colectivo en el progreso de la humanidad, e incluso algunas lecciones sobre ética y defensa de los derechos de autor. La historia de la Informática reproduce en parte la historia de la humanidad, es una historia llena de historias, cada una de las cuales nos puede enseñar algo sobre cómo somos las personas y cómo hemos ido evolucionando y resolviendo nuestros problemas y defectos. Así que comenzaremos preguntándonos cuándo nacieron los ordenadores.

 

 

Feliz aniversario

 

Puede parecer o no triste pero lo cierto es que los pobres ordenadores nunca podrán celebrar su aniversario, nunca podrán cumplir años. En el caso del cine la situación es diferente, aunque unos prefieran referirse a Edison y otros a la primera sesión de los hermano Lumière. Pero podemos encontrar al menos un momento en el que comenzar. Con los ordenadores no es posible. Pero algo habrá que decir para poder entenderlos. Porque los ordenadores no son un invitado extraño que se ha colado en nuestras vidas en plan incordiante. Los ordenadores son el fruto del trabajo y el pensamiento de muchos hombres y mujeres durante cientos y miles de años. Los ordenadores representan el conocimiento acumulado por la humanidad. Son, de alguna manera, “nuestros hijos”, unos hijos de los que nos podemos sentir orgullosos.

 

Joan Ferrés cita a Postman hablando del síndrome de Frankestein: creamos una máquina con una intención definida y limitada pero, cuando la tenemos terminada, descubrimos “a veces horrorizados, normalmente angustiados y siempre sorprendidos”  que la máquina que hemos creado tiene sus propias ideas y es capaz de cambiar nuestras costumbres y nuestra manera de pensar. Esto parece haber pasado con los ordenadores. Nacieron con vocación de calculadora sofisticada y trataron de resolver el problema del censo. Pero luego se han ido adueñando de nuestras vidas hasta estar presentes, más o menos encubiertos, en  casi todos los momentos. Y al final estamos teniendo que cambiar nuestro modo de entender el conocimiento: la acumulación del saber o la capacidad de interpretarlo e integrarlo pasa a ser sustituida por la capacidad de gestionar máquinas que procesan información y gestionan la comunicación. Algo parecido a cuando la azada o la yunta de bueyes fue sustituida por un tractor o por máquinas. La fuerza física perdió importancia. Y hoy los ordenadores nos aterrorizan pues trastocan nuestras asentadas convicciones sobre el pensamiento, el conocimiento y la inteligencia. Digamos, siguiendo con la metáfora de los “hijos”, que éstos nos han salido respondones.

 

Esta es una primera e interesante reflexión con nuestros alumnos. Investigar la historia de la tecnología, tratando de descubrir con qué fin se construyeron las máquinas y para que fueron utilizadas posteriormente. Es también interesante descubrir el papel que los conflictos bélicos han tenido en el desarrollo de la tecnología.

 

¿Pero como hemos llegado a ser capaces de producir un trasto como ése?

 

La historia comienza hace miles de años: primero utilizamos los dedos pero fue, probablemente, hace unos 5.000 años que los babilonios inventaron el ábaco (es un dato en el que no todos los historiadores están de acuerdo). En esos años se desarrollaron otros sistemas de ayuda al cálculo pero de todos ellos, el único que todavía hoy se utiliza es éste. Construir un ábaco es una tarea manual y fácil. Adquirir habilidad en su uso requiere más tiempo, pero es interesante constatar como efectivamente puede, con el tiempo, superarnos para realizar sumas y restas de números grandes. También es posible utilizar el ábaco en bases no decimales. Y con alumnos con conocimientos de programación en ordenadores, es divertido construir un ábaco en la pantalla del ordenador que utilizamos con ayuda del ratón.

 

Tuvieron que pasar más de 4.500 años para que el bebé (o quizás feto) comenzara a desarrollarse un poco más. En 1617 un matemático escocés, John Natier, inventara lo que llaman “los huesos de Napier”, un tablero que permitía multiplicar números muy grandes de modo manual. En 1623 un matemático alemán, Wilhelm Schickard, diseñó una calculadora capaz de sumar, restar, multiplicar y dividir. Cuando estaba a punto de ensamblar las piezas, éstas fueron destruidas por un incendio y el inventor murió al poco. Pero nos quedó un esquema de su máquina, la cual fue construida en 1970, demasiado tarde para que Wilhelm pudiera beneficiarse de las rentas de su invento.

 

Esta historia junto a la multiplicidad de orígenes, quizás paralelos, del ábaco nos debe hacer reflexionar sobre el papel que la mejora de los procesos de comunicación han representado en el progreso humano. Un descubrimiento como la escritura pudo tardar siglos en viajar de una a otra parte del mundo. En muchos casos zonas distantes llegaban a resultados similares a través de procesos paralelos. Merece destacarse la importancia de los viajes de Marco Polo en relación a la difusión de la tecnología. Y la evolución hasta hoy. A mediados de los cincuenta, un laboratorio de una universidad española podía llevar varios años de retraso respecto de su equivalente en un país más adelantado. Las visitas de estudio, los libros enviados desde el extranjero... han sido sustituidos hoy por el correo electrónico, las listas de discusión y las páginas Web en Internet: gracias a Internet ese mismo laboratorio trabaja hoy simultáneo o casi a sus homólogos extranjeros. Y esto es más notable en países no pertenecientes al mundo occidental, en los que cualquier universidad situada en una región apartada puede perder su carácter de centro de estudios de tercer orden, casi poco más que una escuela profesional superior, para disponer de recursos de investigación y desarrollos superiores a los de la capital.  Los sistemas de comunicación están, así, en la base del desarrollo del conocimiento, no únicamente como soporte de la información, sino como soporte del desarrollo del pensamiento colectivo.

 

En 1642 Blaise Pascal, francés, construyó la primera calculadora que sumaba y restaba, la “Pascaline”.  Del tamaño de una caja de zapatos permitía operar hasta números de 8 cifras. A lo largo de su vida construyó 50 aparatos más pero su máquina no fue un éxito comercial, debido al elevado precio y a que la gente tenía miedo de que esa máquina les dejase sin trabajo. ¿Les suena? Es otra interesante lección sobre los ordenadores. IBM organiza su principal almacén europeo sin ningún operario sino basado únicamente en el trabajo de robots controlados por ordenador y bajo la supervisión de unas pocas personas. El trabajo se realiza más rápido, la productividad es mayor, el tipo de trabajo a realizar es más “noble” y en general menos “embrutecedor”... pero ¿quiere eso decir que el trabajo se distribuye de modo que las mismas personas hacen ahora menos horas?. Si no es así, ¿qué pasa con los que pierden el trabajo?. ¿Y qué pasa con las personas que no poseen las dotes  o la formación para realizar esos trabajos de control?.

 

Por otro lado hay que reconocer que, aunque resulte molesto para nuestro amor propio, la esclavitud no desapareció por el desarrollo de brillantes y caritativas ideas morales en la humanidad, sino por el desarrollo de la tecnología. Cuando los faraones construían pirámides no es que odiasen particularmente a los esclavos que morían diariamente en las obras: es que no tenían dinero para pagar a trabajadores que difícilmente habrían afrontado voluntariamente la casi certeza de una muerte por sobretrabajo por un salario ni que fuese elevado. Y desde entonces la humanidad ha seguido construyendo pirámides (o sus equivalentes), pero cuando las máquinas han facilitado ese trabajo, ha sido posible comenzar a plantearse la posibilidad de sustituir los esclavos por trabajadores que, con menos esfuerzo y a cambio de un salario, estaban dispuestos a llevar adelante la obra. Soldados y remeros, porteadores y cocineros, servicio doméstico... evolucionan de la esclavitud al trabajo sobreexplotador, al trabajo mal remunerado ... hasta en ocasiones llegar a salarios dignos. En época de la dictadura de Franco, La Codorniz, una revista humorística, reproducía unos chistes de “la oficina siniestra” en la que eternos hundidos y humillados oficiales con manguitos trabajaban bajo la amenazadora mirada del jefe. Repasando hoy esos chistes resultan tremendamente lejano para quien está habituado a utilizar ordenadores y tecnología en una oficina luminosa, con aire acondicionado, enmoquetada, etc. Son las dos caras de la moneda: los ordenadores enemigos o amigos de los trabajadores.

 

Gottfried Von Leibniz, alemán, mejoró el trabajo de Pascal con su “calculadora escalonada” (1694) que permitía también realizar multiplicaciones y divisiones. Pero su mayor contribución fue precisamente su trabajo teórico sobre la aritmética binaria que permitiría a Boole desarrollar en 1854 su conocido sistema de lógica basada en un sistema binario: el “álgebra de Boole”. Otra historia interesante: habituados a pensar en los grandes inventores nos olvidamos que muchos desarrollos tecnológicos son fruto del trabajo intelectual y poco conocido de otros investigadores. Es un buen momento para que los alumnos conozcan la diferencia entre investigación básica e investigación aplicada y cómo esos campos se confunden hoy en una investigación necesitada de grandes inversiones que buscan una amortización cercana en el tiempo.

 

En 1790 Josep Marie Jacquard utilizó tarjetas perforadas para introducir tramas en una máquina textil. Charles Babbage trató de construir, con escaso éxito, una máquina capaz de resolver ecuaciones diferenciales, y posteriormente en una máquina analítica. Quizás Babbage no tuvo éxito con sus máquinas pero su lógica fue importante para inventores posteriores.  Y quizás el último nombre a citar entre los pioneros es Herman Hollerith: con ayuda de su sistema de tarjetas perforadas consiguió completar el censo de 1890 en dos años, frente a los siete necesitados en 1880. Hollerith montó su propia empresa, la “Tabulating Machine Company” dedicada precisamente a este tipo de operaciones de contabilidad con su máquina. Tras una serie de cambios de nombre, la compañía pasó a denominarse en 1924 “International Business Machines”, más conocida como IBM.

 

La Segunda Guerra mundial estimuló la necesidad de máquinas capaces de realizar cálculos con rapidez. En diversos países se crearon unidades que trabajaron en proyectos que han permanecido en secreto total o parcialmente muchos años. En otros casos se destruyeron los archivos. Todavía hay datos desconocidos del trabajo de Turing, Newman y otros en Bletchley Park, Inglaterra, durante la guerra, tratando de descifrar los códigos alemanes.

 

El “Mark I” fue un desarrollo de Howard Aiken, un científico de la Universidad de Harvard que entre 1937 y 1943 consiguió ponerlo a punto con la ayuda, nada despreciable de medio millón de dólares de la época suministrados por IBM. El equipo medía 15 metros de largo, 2’5 de alto y unos 60 cm. de profundo. Contenía 750.000 piezas y 800 kilómetros de cable. Durante la presentación del nuevo equipo, Aiken no citó a IBM, lo que molestó mucho a Thomas J. Watson, presidente de IBM, el cual abandonó el acto tras proferir unas cuantas expresiones de mal gusto. La colaboración terminó y mientras IBM construía varias réplicas del Mark I, Aiken preparó los Mark II, III y IV.

 

En 1939 John Atanasoff diseñó y construyó el primer prototipo de ordenador digital electrónico, y en 1942, con ayuda de Clifford Berry, una máquina operacional, el ABC (Atanasoff Berry Computer). Lamentablemente nadie le hizo mucho caso excepto John Mauchly, de la universidad de Pennsylvania. En 1941 le hizo una visita durante cinco días tuvo la oportunidad de consultar todos sus apuntes. Luego, de regreso a su universidad comenzó a trabajar en un proyecto militar secreto con J. Presper Eckert a quien nunca le contó de ese viaje.

 

Mauchly y Eckert se pusieron, pues, a trabajar en una máquina capaz de calcular las tablas de balística y, algo tarde quizás para ser utilizado en la guerra, en 1946 terminaron el ENIAC (Electronic Numerical Integrator and Calculator), uno de los ordenadores más famosos de la historia y conocido como el primer ordenador electrónico digital hasta que en 1973, después de 30 años de no reconocimiento del papel de Atanasoff (que no había patentado su trabajo), el juez Larson invalidó la patente del ENIAC, decidiendo que efectivamente Eckert  y Mauchly habían tomado ideas “prestadas” de Atanasoff. Aunque la historia haya tenido un final relativamente feliz, también nos enseña algo sobre la falta de escrúpulos entre los inventores y la necesidad de registrar y hacer respetar el fruto del propio trabajo.

 

No conocemos cómo era el ABC pero sí poseemos algunos datos del ENIAC que resultan ilustradores: ocupaba una gran habitación, pesaba 30 toneladas, consumía como media ciudad de la época, generaba un calor tal que hizo necesario colocar un sistema especial de aire acondicionado, y, lo más interesante, permitía hacer en 3 minutos un cálculo para el que los anteriores ordenadores electromecánicos necesitaban 30 horas. Es cierto que hoy esos mismos cálculos pueden hacerse en segundos con calculadoras de bolsillo.

 

El ENIAC tenía dos problemas importantes: la pequeña memoria y que para cambiar de programa había que recablearlo. Afortunadamente la llegada de John Von Newmann al equipo ayudó a desarrollar un sistema de memoria y procesamiento serial de la información permitió el diseño del EDVAC (Electronic Discrete Variable Automatic Computer) un ordenador que como pasa hoy, era más potente y más rápido. También aquí encontramos una interesante historia para contar. El grupo Moore, así llamado por estar en la escuela de Ingeniería eléctrica del mismo nombre, que integraba a Eckert, Mauchly y Newmann, aceptó la propuesta de éste último de preparar un informe. Newmann preparó el informe sin incluir referencias y lo envió a Goldstine, otro miembro del grupo, el cual, sin avisar a Eckert o Mauchly, lo publicó colocando en la tapa “Informe sobre el EDVAC” con el único nombre de Newmann. Es posible que Newmann no lo pretendiera, aunque es cierto que no trató de rectificarlo. Y así en la historia quedó su nombre asociado al primer diseño de un ordenador moderno. Y hay que decir al diseño porque realmente el primer ordenador fue el EDSAC (Electronic Delay Storage Automatic Computer), construido en la universidad de Cambridge, Inglaterra. La moraleja de Eckert recibiendo la misma medicina que hay dado a Atanasoff es graciosa.

 

 

Las generaciones de ordenadores

 

En 1951, con el UNIVAC, comienza la época de los ordenadores comerciales, hace escasamente medio siglo. Entonces todavía se les denominaba en este país “Cerebros electrónicos”.  En 1953 aparece el IBM 701, el Burrough E-101 y el Honeywell Datamatic 1000.  Durante esos años se construyen lo que se llama la primera generación de ordenadores.

 

La primera generación de ordenadores comienza en los 40 y se extiende por los 50. Los equipos utilizan lámparas de vacío como los antiguos equipos de radio. Estas lámparas eran pequeñas bombillas de cristal con electrodos en su interior que permitían el paso de la corriente o lo interrumpían según los casos. Los equipos resultantes eran grandes, pesados, consumían mucha electricidad y generaban importantes cantidades de calor. También comenzó a utilizarse la grabación magnética.

 

La segunda generación comienza a finales de los cincuenta. Los ordenadores comienzan a utilizar el transistor, inventado en 1947. Esta pequeña pieza sólida podía sustituir a una lámpara de vacío reduciendo drásticamente tamaño, peso y consumo.

 

La tercera generación comenzó en 1964 con el modelo 360 de IBM. Ahora los transistores comenzaron a integrarse en un chip formando lo que se llamó “circuitos integrados”. el ordenador se hizo más pequeño y sobre todo más económico. También la cinta magnética es reemplazada por los discos magnéticos. Posteriormente también las tarjetas perforadas fueron siendo sustituidas por terminales de teclado y pantallas. Todavía hoy en la administración pública se llaman “perforistas” a las personas encargadas de introducir los datos aunque ya no se utilicen perforadoras de tarjetas.

 

En los 70 se produjo la integración a gran escala que permitía colocar cientos de miles de transistores en un chip de apenas unos milímetros. Con esto aparecen los microprocesadores lo que da pie a la cuarta generación de ordenadores. Intel introdujo en 1971 el modelo 4004 de microprocesador, utilizable en diversas máquinas, y más tarde el 8080. con esto el peso pasó de los fabricantes de ordenadores a los fabricantes de microprocesadores, lo que ha convertido a Intel en el gigante que es hoy.

 

También en los 70 surgen algunas de las marcas más conocidas. En una explosión de pequeños ordenadores de bajo precio gracias al uso de estos microprocesadores, Altair produce su equipo basado en el 8080. Steve Wozniak y Steve Jobs venden su coche “escarabajo” para construir el primer Apple I.  En 1977 construirían el Apple II, muy utilizado en las escuelas. Es más desconocido su éxito entre las empresas gracias a una programa de simulación de hoja de cálculo denominado VisiCalc. Como datos, tenía 4 Kb de memoria y la velocidad de su reloj era 1 Hz. El precio de 1.298 dólares es el que hoy nos permite comprar un equipos con casi cien mil veces más memoria y una velocidad multiplicada por algunos cientos. Otras marcas que surgen en la época son Commodore, Sinclair, etc.

 

La quinta generación comienza en los noventa con equipos más rápidos, el uso de sistemas ópticos de almacenamiento de la información, y un largo etcétera de desarrollos tecnológicos. Desde mi punto de vista la quinta generación viene definida precisamente por algo que no son los ordenadores: lo que está haciendo realmente diferentes, no sólo más rápidos o más baratos, a los ordenadores no son sus circuitos sino los programas y el interface del usuario. El interface gráfico recogido en los Macintosh a partir de Xerox, y luego copiado por Microsoft ha permitido el acceso a los ordenadores a personas que nunca hubieran pensado en dominar esos trastos. La divulgación del sistema MS DOS ligado posteriormente a Windows ha permitido una estandarización de equipos y programas tampoco conocida. Finalmente, Internet y Multimedia han convertido los ordenadores en auténticos instrumentos de comunicación. La idea de que los ordenadores están cambiando está desarrollada en 1995 en la revista Aula y recoge unas reflexiones de unos años antes, cuando todavía algunos programas oficiales insistían en utilizar el viejo MS-DOS y el control del sistema mediante comandos escritos, en equipos incomunicados, sin conexión de red ni tarjeta de sonido preinstalada. En 1994, mientras presenciaba a un profesor canadiense que nos mostraba orgulloso su nuevo “486” y abría el Windows 3.11 no pude contenerme y le pregunté: “Si tanta ilusión le hace, ¿por qué ha esperado tantos años pudiendo utilizar un Macintosh?”. No se trata de hacer publicidad de una marca a la que se le pueden realizar numerosas críticas. Pero constatar que desde mediados de los ochenta, el primer Macintosh ofrecía de serie (en todos los modelos, del más barato al más caro) conexión en red, sonido, programas para generar hipertextos, visualización en pantalla tal como se imprime, estandarización de los interfaces de los programas, interface gráfico, etc.

 

Estos años son ricos en anécdotas que pueden hacernos reflexionar: algunas frases famosas como la del importante presidente de una gran empresa de ordenadores preguntándose para qué iba a querer nadie tener en casa un ordenador, o Bill Gates bromeando: “Internet, ¿interqué?”.  O asegurando que con 640 Kb de memoria (el máximo que soportaba MS-DOS) había lo necesario para todo lo que nadie necesitase en el futuro.

 

También son interesantes los juicios. A los ya vistos hay que añadir Apple contra Microsoft por el diseño de Windows (pero de hecho tampoco era una invención de Apple), o el gobierno de los Estados Unidos con MicroSoft por prácticas monopolísticas. En general nadie se salva demasiado de esas prácticas y tiene su explicación: de alguna manera hay que recuperar las grandes inversiones necesarias.

 

Pero ¿y el futuro?. Al ritmo actual en el año 2020 la era del silicio tocará fondo: las leyes de la física cuántica harán imposible construir procesadores más pequeños, cuando ya los circuitos estén en dimensiones moleculares. Esta predicción se basa en la Ley de Moore que estima que los ordenadores doblan su potencia aproximadamente cada 18 meses. Entendiendo que esta ley no es física sino una estimación que realizó Gordon Moore, cofundador de Intel en 1965 y que se respeta bastante.

 

Probablemente entonces los ordenadores (o mejor, los microprocesadores) invadan nuestra vida. Pueden estar en hojas de papel que se pronto se llenarán de letras y números, en habitaciones, en ventanas, en grifos, en luces, en coches, en plumas, en los zapatos y en relojes. Todo un universo de ordenadores que se interconectarán y desconectarán continuamente intercambiando información de modo “inteligente” y que harán nuestras vidas bastante diferentes. Y los aprendizajes también.

 

El límite señalado antes hace que el segundo cuarto del siglo XXI sea el del nacimiento de nuevas generaciones de máquinas de información y comunicación: ordenadores ópticos, moleculares o cuánticos. Y esto llevará seguramente a una ruptura con los conceptos actuales dominantes en el campo de la informática. Podrían desaparecer los ordenadores digitales y quizás pasar a trabajar sobre nuevos modelos matemáticos como el álgebra de conjuntos borrosos, muy basada en la probabilidad y quizás más cercana al funcionamiento del cerebro humano. Y desde luego, la robótica y en general la inteligencia artificial invadirán el mundo.

 

La segunda mitad del siglo XXI es más impredecible todavía. Sin saber hacia donde evolucionará la tecnología de la información y la comunicación, sólo podemos intuir que los robots adquirirán cierto grado de “inteligencia” y “conciencia” en formas todavía muy primitivas pero que permitirá seguir eliminando puestos de trabajo. La creación de nuevas divisiones sociales y la evolución de la distribución geográfica del poder estará ligada seguramente a este desarrollo tecnológico. Si el actual crecimiento económico del sudeste asiático ligado a un mayor desarrollo de su capacidad tecnológica en el ámbito de las tecnologías de la información y la comunicación se mantiene y desvía hacia allí el poder mundial, podría producirse también una reordenación de los modelos culturales en una sociedad en la que los medios de comunicación han ido progresivamente creando una cultura común siempre con mayor peso de los modelos dominantes. O sea, que quien sabe si terminaremos hablando Chino. O quizás lo hagan los ordenadores por nosotros.

 

La reflexión interesante es la constatación de que frecuentemente concebimos el mundo como algo estático, en el que las cosas son.  Sin embargo los ordenadores nos muestran que en muy pocos años la vida ha cambiado muy rápidamente y todavía lo hará más en el futuro. Eso debe hacer reflexionar a educadores y profesores sobre su función y sus objetivos educativos. Y debe tenerse presente cuando introduzcamos el aprendizaje sobre ordenadores en nuestro currículum

Feliz anniversario
¿Cómo lo hemos producido?
bottom of page