Revista GLOBAL

[custom_translate_tts_widget]

El 16 de noviembre del año 2005, en la segunda fase de la Cumbre Mundial de la Sociedad de la Información (wsis) en Túnez, el Grupo del Laboratorio de Media del mit, encabezado por Nicholas Negroponte, junto al secretario general de las Naciones Unidas, Kofi Annan, develó al mundo el borrador del prototipo de la computadora portátil de cien dólares.

Luego, en el Foro Económico Mundial en Davos, el Programa de las Naciones Unidas para elDesarrollo (pnud) hizo pública una declaración indicando que trabajaría con Una Computadora portátil Por Niño ucppn (Computadora portátil de Cien Dólares) para ofrecer “tecnología y recursos dirigidos a escuelas en los países menos desarrollados”.

¿Por qué el ucppn es más que un mero proyecto de tecnología? Uno de los principales conceptos del ucppn se basa en las teorías “construccionistas” de aprendizaje desarrolladas por Seymour Papert, Alan Kay, Mitchel Resnick y David Cavallo, y en los principios expresados en el libro Ser digital de Nicholas Negroponte. Las teorías construccionistas de aprendizaje hacen mucho énfasis en cómo la tecnología digital puede ser utilizada como un constructor para la adquisición de fluidez tecnológica que vaya más allá de aprender el uso del software de office.

Ir más allá de aprender el uso de este software significa aprender el valor fundamental de la programación. Por tanto, otro concepto que hace posible el ucppn es la utilización de Código Abierto (open source): es gracias a la existencia de Código Abierto que el ucppn será capaz de ofrecer tecnología y recursos dirigidos a escuelas en los países menos desarrollados”. Este artículo trata sobre Código Abierto y educación, y de la importancia de la existencia de Código Abierto para el futuro de la educación.

Revolución incompleta

En el año 2005, alrededor de 300 millones de personas en el mundo tenían una pc y más de 100 millones utilizaban Internet. El número de usuarios se ha más que duplicado desde 1988, y a este ritmo más de un billón de personas estarán en línea en los próximos años. Este es uno de los procesos revolucionarios más extraordinarios de la historia. El trabajo, los servicios y la economía mundial se han reorganizado alrededor de esta tecnología, afectando la forma en que las personas se comunican, se divierten, aprenden y educan a sus hijos. Esta revolución de la información está transformando casi todas las áreas de interacción social, desde el campo médico hasta las finanzas.

Sin embargo, un área en la que los avances de la revolución de la información no han sido capaces de realizar cambios radicales o fundamentales es la educación.  No necesitamos una extensa investigación para verificar los hechos de que el proceso de enseñanza y aprendizaje, y la práctica misma de la educación, se han quedado muy atrás en la “Revolución de la Información”. Aún vemos la educación en el ámbito de “papel y lápiz” y basamos el proceso de aprendizaje en el rol de los maestros como una figura jerárquica, en el entendido de “lo que los niños deben aprender” y “cómo deben aprender”.A pesar de las enormes transformaciones y de la importancia de las tecnologías de la información, existe una laguna en cuanto a entender cómo aplicar la tecnología de la información en educación. Los más ingenuos pensarían que podríamos tener resultados positivos trayendo las computadoras al salón de clases, sin una transformación paralela de la estructura del sistema educativo. Si no hacemos esto simultáneamente, no estamos haciendo el cambio necesario para transformar la educación en el contexto de esta revolución. El simple uso de una computadora en el salón de clases sería ciertamente una falacia muy ingenua; pero más aún peligrosa, porque la sola utilización de computadoras (sin cambios estructurales paralelos) en un sistema educativo deficiente y disfuncional podría más bien exacerbar las deficiencias.

 Si miramos de cerca, los sistemas de educación K-12 (desde kinder hasta 12 grado) no han cambiado radicalmente en los últimos 50 años. Básicamente todavía estamos forzando a los niños a memorizar fórmulas que nunca utilizarán, datos que no están relacionados con sus intereses o aptitudes, y sometiéndolos a pruebas sobre los temas más irrelevantes.

El costo

Cuando el equipo de la Computadora portátil de cien dólares asumió la tarea de desarrollar un ordenador portátil asequible para los estudiantes de K-12, haciendo énfasis en los países menos desarrollados, la primera tarea era analizar el costo de cada uno de los componentes de una computadora portátil regular. No podemos olvidar que uno de los miembros de este equipo es Alan Kay, el inventor de la computadora portátil que millones de personas utilizan hoy en día, la “Dynabook”. Cuatro asuntos muy importantes surgieron de esta tarea.

Primero, reducir a cerca de cero el margen usual de beneficios, junto a los costos de ventas,

mercadeo y distribución. Estos valores llegan normalmente a más del 50 por ciento del precio de una computadora portátil.

Una breve historia de la computadora, el software e Internet

Opuestos a los apuros neoliberales en contra de la intervención gubernamental, podemos ver extraordinarios ejemplos en la historia que demuestran precisamente que debido a la intervención gubernamental se han producido avances y desarrollo en muchas áreas. Ciencia y tecnología es una de esas áreas donde podemos identificar fácilmente seis generaciones de enormes mejoras en informática debido a los proyectos de financiación gubernamental.

La primera generación de computadores electrónicos va de 1937 a 1953. Durante este periodo vimos un creciente interés por construir una computadora electrónica para las universidades con fondos del Gobierno.John Vincent Atanasoff, profesor de Física y Matemáticas de la universidad del estado de Iowa, se propuso en 1937 construir una máquina que ayudará a sus estudiantes de postgrado a resolver problemas de sistemas matemáticos de ecuaciones diferenciales parciales. En 1941, Atanasoff y Clifford Berry construyeron con éxito una máquina capaz de resolver 29 ecuaciones simultáneas con 29 incógnitas,que, aunque no era una computadora programable, fue un impulso para desarrollos posteriores. En 1943, Alan Turing realizó intentos similares para el ejército británico. Turing construyó una máquina llamada Coloso para realizar y resolver funciones matemáticas, la cual se mantuvo en secreto hasta mucho después de que finalizara la II Guerra Mundial.

Sin embargo, la tecnología de software era muy insuficiente durante esta generación de computadoras. Los primeros programas de software fueron escritos en códigos como instrucciones para guardar en la memoria. En 1950 los programadores usaban anotaciones simbólicas equivalentes al lenguaje de ensamblaje que luego traducían en código máquina. 

La segunda generación va desde 1954 hasta 1962 y logró avances importantes en cuanto a diseño de sistemas, desde circuitos básicos hasta lenguajes de programación para escribir aplicaciones científicas.

La primera máquina con esta tecnología, la TX-0, fue desarrollada en 1954 en el Laboratorio Lincoln del mit. La memoria se basaba en núcleos magnéticos –en lugar de líneas de retraso de mercurio– para almacenar datos como una onda acústica por una.

Segundo, uno de los componentes más costosos de una computadora portátil regular era la pantalla. La pantalla alcanza el 50 por ciento o más del costo restante, lo que significa el 25 por ciento del costo total. Nadie en la industria estaba interesado en la fabricación de una pantalla barata, aun cuando la tecnología estuviera disponible. Electronic Ink fue la invención del Laboratorio de Media, por tanto, la solución estaba dentro de las mismas paredes. Electronic Ink es la tecnología de pantalla que tendrán las generaciones futuras de la Computadora portátil de 100 dólares, pero inicialmente utilizarán la TFT LCD diagonal de 7 pulgadas (18 cm.) dualmode (legible a la luz del sol con 200 dpi). Legible a la luz del sol debido a que millones de niños en países menos desarrollados, como la República Dominicana, reciben clases en condiciones donde ni siquiera hay salones de clases disponibles.

 Tercero, otro componente era el disco duro. Un 5 por ciento de todos los discos duros fabricados en el mundo sufren fallas. Este riesgo de fallas era muy alto para cada país adquirente de un millón de estas computadoras portátiles. El Laboratorio de Media aportó una solución ya utilizada en el iPod. Ahora, la primera generación de la Computadora Portátil de 100 dólares tendrá una memoria Flash de 512MB-1GB/128 MB DRAM (a prueba de fallos).

Cuarto, las computadoras portátiles de hoy tienen “sobrepeso” de software. Dos tercios de su software son utilizados para manejar el otro tercio. Para que una computadora portátil cueste 100 dólares o menos, el sistema operativo de software no puede costar 200 dólares. Por tanto, era necesario utilizar un sistema operativo de Código Abierto, como el Red Hat Fedora Core-Based Linux. No sólo porque es barato, sino porque es mejor. De hecho, para el primer cuatrimestre de 2007, Quanta Manufacturer ya tendrá producidas para el mit 15 millones de computadoras portátiles destinadas a países de menor desarrollo, con una conectividad interna de 802.11 con red de malla; interfaz. Esta generación incluyó índices de registro para controlar los bucles en el cálculo de números reales. Fue en este período cuando se introdujeron muchos lenguajes de programación, entre ellos FORTRAN en 1956, ALGOL en 1958 y COBOL en 1959. Las máquinas comerciales de esa época eran las IBM 704, 709 y 7094, pero eran tan costosas que sólo eran vendidas al Gobierno. La tercera generación está comprendida normalmente entre 1963 y 1972, y aportó grandes mejoras a la ciencia computacional. Fue durante este período cuando la computadora comenzó a utilizar circuitos integrados y memorias semiconductoras, microprogramación para diseños complejos eficientes y sistemas operativos.La cuarta generación de computadoras presentó niveles aún más altos de integración llamados usualmente LSI y VLSI-1000, por Very-Large-Sca-le-Integration (Integración a muy gran escala) con la miniaturización del microchip, refiriéndose a los microchips que contienen cientos de miles de transistores. Entre mediados de la década de los setenta y principios de los ochenta se empezaron a introducir las primeras computadoras de uso personal, como la Altair en 1975 y la Apple II (descendiente de la Apple I) en 1977. IBM introdujo su primera computadora para uso doméstico en 1981 y en 1984 Apple introdujo la Macintosh. El mundo no ha sido el mismo desde entonces, y nunca lo volverá a ser. En 1982, el Departamento de Defensa de los Estados Unidos (dod por sus siglas en inglés) y la Fundación Nacional de Ciencias (NSF por sus  siglas en inglés) patrocinaron un panel sobre Informática a Gran Escala en Ciencias e Ingeniería, con el profesor Peter D. Lax de la Universidad de New York, quien para ese entonces era miembro del Consejo Nacional de Ciencias. En el panel se emitió un informe conocido con el “Informe Lax”, que establecía la necesidad que tenía Estados Unidos de iniciativas más agresivas de informática de alto desempeño. Entre los años 1984 y 1990 la quinta generación de ordenadores introdujo máquinas con cientos de procesadores que podían trabajar en diferentes partes de un mismo programa. Para 1990 era posible construir chips con

millones de componentes, haciendo que las memorias semiconductoras fueran estándar en todas las computadoras.

sistema operativo Red Hat Fedora CoreBased Linux; opción de conexión USB; Memoria Flash de 512MB–1GB/128 MB DRAM; entrada de teclado/ touchpad y tres puertos USB adicionales; baterías de energía con generador hand-crank (de manivela); batería de carro de 12 V y AC de pared; un CPU basado en AMD Geode [email protected] +5536, monitor dualmode de 7” (18cm.) TFT LCD (legible a la luz del sol de 200 dpi) y longitud extendida del touchpad que permite aprender a escribir. Pero estas computadoras portátiles tienen algo más que sus programas: vienen con libros electrónicos que tienen disponibles los libros de texto de todo el año, más un juego computacional basado en la programación Código Abierto. Los niños aprenden a hacer programas de Código Abierto y a compartirlos mediante una red inalámbrica.

Código Abierto

Este cuarto elemento es uno de los más importantes de la Computadora portátil de 100 dólares.

Necesitamos tener presente que este proyecto no es un proyecto tecnológico sino educativo, basado en el movimiento teórico que argumenta que el aprendizaje ocurre mejor cuando es auto-dirigido. Esta es la razón principal de por qué es una computadora portátil por niño y no una computadora de escritorio por salón de clases, y por esto se basa en un sistema operativo de Código Abierto.

En 1984 se lanzó el Proyecto gnu para desarrollar un software gratuito de sistema operativo completo, como el Unix. Por definición, software gratuito es un software que el usuario tiene la libertad de ejecutar, copiar, distribuir, estudiar, cambiar y mejorar.

Hay cuatro clases de libertades para los usuarios:

1. La libertad de ejecutar el programa para cualquier propósito.

2. La libertad de estudiar cómo trabaja el programa y de adaptarlo a las necesidades particulares de una persona gracias al acceso al código fuente.

3. La libertad de redistribuir copias para ayudar a su vecino.

Ahora estamos en la sexta generación, que comenzó en 1990. Es muy difícil identificar las transiciones entre las generaciones en la historia de la computadora, pero lo que está representando cambios significativos es el hecho de que la computación cuántica y la nanotecnología tendrán un impacto radical en el futuro computacional de los próximos años.Tal parece que el objetivo de esta etapa de la computación es desarrollar dispositivos que respondan a la entrada natural del lenguaje, ya en uso, pero capaces de aprender y organizarse. 

El ancho de banda de redes será otra área donde la nueva generación de ciencias computacionales tendrá gran desarrollo con la ayuda de Código Abierto. La tecnología de redes será ampliamente difundida lejos de las universidades tradicionales y de los terrenos de laboratorios gubernamentales gracias a las futuras aplicaciones en la educación K-12 (desde kinder hasta 12 grado).

El Acta de Informática de Alto Desempeño en Estados Unidos estableció en 1991 el Programa de Informática y Comunicación de Alto Desempeño (HPCCP, por sus siglas en inglés) y el Acta de Infraestructura y Tecnología de la Información del senador Gore llamó la atención sobre la necesidad de la expansión del acceso a redes y puso a disposición de los educadores las tecnologías de punta desde el kinder hasta la escuela de graduados. El presupuesto de 1993 del presidente de los Estados Unidos contiene 2.1 billones de dólares para programas educativos

de matemáticas, ciencias, tecnología y conocimientos científicos, un aumento de un 45% sobre el presupuesto de 1990. Durante este período el estado de Maine hizo obligatorio que cada estudiante de las escuelas tuviera una computadora portátil, según iniciativa encabezada por Seymour Papert. Para el año 2007, una población de más de 500,000 estudiantes desde kinder hasta 12 grado del estado de Massachussets tendrá una computadora portátil de 100 dólares.

Internet y el desarrollo de software han revolucionado el mundo de la informática y de las comunicaciones como nada lo había hecho anteriormente, lo que representa uno de los ejemplos más exitosos y más difundidos de los beneficios sociales que salen de proyectos financiados por el Gobierno.

La primera interacción mediante redes fue una serie de memos de J.C.R. Licklider del mit en agosto de 1962,

4. La libertad de mejorar el programa y hacer públicas sus mejoras de manera que toda la comunidad se beneficie teniendo acceso al código fuente.

En los últimos 20 años, la práctica de programar y compartir software gratuito ha estado creciendo rápidamente. Se diferencia de otra producción de software porque los promotores o productores comparten entre ellos no sólo los problemas técnicos y las innovaciones, sino también algún tipo de filosofía o movimiento social.

El software de Código Abierto es una práctica en crecimiento: cerca del 70% de todos los sitios de la red funcionan con un servidor de red de Código Abierto llamado Apache; más del 85% del tráfico mundial de correo electrónico es manejado por otro software de Código Abierto llamado Sendmail, y el 40% de las corporaciones norteamericanas más importantes utilizan un sistema operativo de Código Abierto, el gnu/Linux. El Departamento de Defensa de los Estados Unidos utiliza Código Abierto, los gobiernos de Venezuela y Brasil lo usan, y uno de las universidades de ingeniería más notables del mundo, el mit, utiliza Código Abierto. Entonces, ¡debe haber algo realmente bueno en el Código Abierto!

discutiendo el proyecto “Red Galáctica”. El objetivo era la creación de un grupo de ordenadores interconectados, cada uno con acceso a datos y programas. Licklider fue el primer jefe del programa de investigación informática de la Agencia de Investigación de Proyectos Avanzados de Defensa (darpa por sus siglas en inglés). Esta agencia es la organización central de investigación y desarrollo del Departamento de Defensa (dod) y desde ahí y junto a Iván Sutherland, Bob Taylor, y el investigador del mit Lawrence G. Roberts, comenzaron a trabajar en esta revolucionaria idea de redes de computadores.

 Durante el mismo período, Leonard Kleinrock, en el mit, trabajó junto a Lawrence Roberts en dos asuntos principales: la factibilidad de las comunicaciones utilizando paquetes en vez de circuitos y hacer que los computadores hablen entre ellos. En 1965, trabajando con Thomas Merrill, Roberts conectó con éxito la computadora TX-2 en el mit con la Q- 32 en California mediante una línea telefónica de marcado (dial-up). Esta fue la primera red de computadores de área amplia, que hacía posible el trabajo a tiempo compartido entre más de un computador, ejecutando programas y recuperando datos.

En 1966, Roberts formalizó un plan para desarrollar la Agencia de Investigación de Proyectos Avanzados de Redes (arpanet, por sus siglas en inglés), el cual se convirtió en realidad en 1969 con la conexión de cuatro computadores desde la universidad. Esta agenciaadministra y dirige proyectos básicos de investigación y desarrollo para el dod, investigando tecnologías donde el riesgo y la recompensa son muy altos, y donde el éxito puede ofrecer drásticos avances para los roles y misiones militares tradicionales.

En el año 1970, el desarrollo de programas con un grupo especial de reglas en cada punto final de la conexión de telecomunicaciones que durante el intercambio de comunicación ambos computadores debían reconocer y observar hizo posible expandir el tamaño de la red, convirtiéndose en una red de redes. El arpanet original vino a ser lo que hoy se conoce como Internet, pero para que esto fuera una realidad era necesaria una red de arquitectura abierta. Este ambiente de arquitectura abierta hizo posible un protocolo que finalmente se llamaría Protocolo de Control de Transmisión/Protocolo de Internet (TCP/IP por sus siglas en inglés).

Existe la mala percepción de que el software de Código Abierto no es comercial. El software comercial no es contrario al software de Código Abierto. La mejor definición que se puede ofrecer de lo que es opuesto al software de Código Abierto es el software con marca registrada.

Un software de Código Abierto es un tipo particular de software en el que el código fuente está disponible y el usuario tiene derecho a participar en la mejora del software. La mayoría del software de Código Abierto puede bajarse de Internet sin costo, bajo el acuerdo de que cualquier mejora será compartida con el creador y que será gratuita para los futuros usuarios.

Hay muchas razones que justifican el uso de software de Código Abierto, pero la mejor de todas es que no hay razón para no utilizarlo. Aún con sus logros tecnológicos, lo más importante es que la atracción del movimiento de Código Abierto descansa en su visión social y filosófica. El hecho de que el software de Código Abierto es difundido como copia a una gran cantidad de programadores alrededor del mundo no disminuye el valor del productor original. Mientras el software original es más utilizado, perfeccionado y compartido, más valioso se hace para la comunidad. Muchos desarrolladores de open source son estudiantes o profesionales de diferentes disciplinas. Un programador de Linux, Con Colivas, quien inventó algunos maravillosos algoritmos de programación, es un doctor que programa como hobby. Este código compartido con la comunidad tiene mucho sentido porque muestra a otros el buen trabajo que se ha hecho. Y aún más significativo es el hecho de que trabajando junto a otros se logra mucho más que trabajando solos. 

Mientras la comunidad de Código Abierto es difícil de definir, aquellos involucrados en ella se sienten parte de un grupo grande e importante. Cuando una persona difunde un software de Código Abierto, está dando algo de valor a la comunidad, y siente que está trabajando en un mismo proyecto junto a otros miembros de la misma.

Trabajando en arpanet, Ray Tomlinson comenzó a desarrollar el sistema operativo tenex con programas llamados sndmsg y readmail. En 1971 Tomlinson desarrolló la primera aplicación arpanet de correo electrónico mediante la actualización del sndmsg y añadiendo un programa llamado cpynet. Este nuevo programa podía copiar archivos y enviarlos a través de la red para informar a otros colegas. A fin de identificar a la persona a la que se enviaba los archivos, Tomlison escogió un sistema de direcciones utilizando @, símbolo comercial de “en”. Este símbolo en combinación con un nombre de usuario y un anfitrión (host) era capaz de ofrecer una dirección de ubicación lógica ususario@anfitrión, lo que se convirtió en el estándar de dirección de correo electrónico de hoy. En sus comienzos las computadoras no tenían sistemas operativos, los programas que administran el hardware surgieron a principios de los años sesenta. John W. Tukey fue la primera persona en utilizar el término “software” en 1957. Lo que llamaba software era una secuencia codificada de instrucciones en la memoria de un dispositivo para controlar las computaciones. Más tarde, Alan Turing introdujo la teoría más moderna de software que se utiliza hoy en día, en el artículo “Máquinas de computación e inteligencia”, originalmente publicado por Oxford University Press.

El uso de los computadores en los negocios impulsó el inicio de la industria de software a finales de los años cincuenta, y la mayoría de los programadores procedían de agencias del Gobierno de Estados Unidos.

La educación es un área donde la utilización de Código Abierto daría a los estudiantes un gran sentido de trabajo comunitario y de relaciones personales. Al ser parte de esta comunidad, los estudiantes se sienten ellos mismos y no se esconden detrás de la estructura tradicional del salón de clases.

No hay necesidad de estar atento a los estándares y reglamentos, lo que les da un estilo personal e informal. El aprendizaje y el liderazgo tienden a no ser muy burocráticos y están basados directamente en los méritos. Los educadores están luchando para incorporar la tecnología al salón de clases, pero muchos aún enseñan con pizarra, en una estructura jerárquica donde los estudiantes están usando lápiz y papel. Esto significa que los maestros y padres están enfrentados con nuevas tareas educativas. En adición a sus roles pedagógicos

tradicionales, tendrán que aprender junto a sus niños cómo utilizar la tecnología, al tiempo que exploran formas para usar mejoras generales de aprendizaje. La combinación de estas dos tareas pedagógicas es una carga de importancia para la profesión magisterial, así como para los padres.

En este desafío el problema no se resuelve con “conocimientos computacionales”. Esta expresión se ha vuelto muy trivial en los últimos años, enfatizando que si una persona no adquiere los necesarios “conocimientos computacionales” será considerada “no-empleable” en un futuro inmediato.

Normalmente, la mayoría de los currículos con conocimientos computacionales se refieren a conocimientos superficiales sobre las partes de una computadora y de los actuales softwares de office, que de hecho se actualizan cada año. Como dice Seymour Papert en su libro La familia conectada: “El conocimiento adquirido es tan superficial que alguien que supiera la cantidad equivalente en lectura, escritura y libros sería llamado analfabeto en vez de alfabetizado. Sería como si alguien supiera los nombres de las letras pero no pudiera leer, o podría contestar preguntas como qué es un libro y qué es una biblioteca pero nunca haya leído un libro o consultado una biblioteca. Los niños que salen de cursos de conocimientos computacionales son profundamente iletrados en relación con lo que realmente importa acerca de las computadoras: que usted puede utilizarlas para sus propios propósitos”.

Esto es algo que puede ser superado mediante la programación con Código Abierto. En general, la gente le tiene miedo a la programación. Se sienten intimidados, y esa parece ser la razón por la que las corporaciones venden complicados paquetes de software y libros para aprender a usar ese software, así como cursos para ser los llamados “expertos” en dicho software. En realidad, los niños aprenden a programar solamente utilizando Internet. Sin ningún tipo de instrucción, ellos aprenden cómo establecer un “blog” en Google, cómo cargar una película y cómo programar una página web utilizado html.

Este es uno de los aspectos donde el Código Abierto está directamente enlazado con la educación. Mediante el aprendizaje de Código Abierto los niños aprenderán a pensar lógicamente y a realizar cálculos por ellos mismos, aprendiendo mientras construyen.

El código Abierto daría a los estudiantes un gran sentido de trabajo comunitario y de relaciones personales.

Parece ser un acontecimiento común hoy en día en familias con una computadora, oír a los padres pedir ayuda a su hijo cuando no saben cómo instalar un nuevo programa en la computadora o cerrar un programa que está funcionando en segundo plano. Está ocurriendo en muchos hogares: los niños son los desenvueltos “ingenieros” capaces de programar el VCR o el DVD. Por esto la comunidad Código Abierto descansa en una de las más grandes herramientas de la educación: el autoaprendizaje.

José Santana es economista, especializado en tecnología y desarrollo. Es major en Economía por la universidad Intec y minor en Psicología y Filosofía, con posgrado en Executive Information Technology Management en la universidad de Columbia. Participó en el programa internacional Building Our Future de la universidad de Ilmenau. En 2003 se unió al mit, colaborando en el Media Lab con Nicholas Negroponte en el proyecto Computadora Portátil de Cien Dólares. Desde 2004 es director ejecutivo de la Comisión Internacional de Ciencia y Tecnología de la Presidencia de la República Dominicana.


Leave a Comment

* Al utilizar este formulario usted acepta el almacenamiento y manejo de sus datos por parte de este sitio web.

Global es una publicación de la Fundación Global Democracia y Desarrollo y su Editorial Funglode. Es una revista bimestral de naturaleza multidisciplinaria, que canaliza las reflexiones sociales y culturales, acorde con el pensamiento y la realidad actual, elevando de este modo la calidad del debate.

© 2023 Revista GLOBAL. Todos los derechos reservados. FUNGLODE.

Are you sure want to unlock this post?
Unlock left : 0
Are you sure want to cancel subscription?
-
00:00
00:00
Update Required Flash plugin
-
00:00
00:00