Font Size
free site maker
Mobirise

Publicación semestral, ISSN en trámite

Diciembre 2018 • Volumen 1 • Número de revista 1

Convocatoria 2019

El Cómputo y las telecomunicaciones en la UNAM del siglo XXI

 

Mobirise

Introducción

El “bicho” del año 2000

En la víspera del año 2000, poco antes de las campanadas que anunciaban el nuevo año, varios grupos de trabajo permanecieron en la DGSCA (Dirección General de Servicios de Cómputo Académico) supervisando que no se presentaran problemas con diversos sistemas de información debido a la amenaza del error del año 2000 (Y2K). Dado que la mayoría de los sistemas desarrollados hasta entonces en la UNAM consideraban un par de dígitos para la representación del año, desde meses atrás se habían realizado pruebas y ajustes a los equipos de misión crítica, como los que abastecían la operación de la nómina o las bases de datos de administración escolar, así también la supercomputadora Silicon Graphics Origin 2000. La media noche pasó sin que se presentaran inconvenientes. De forma muy aislada, computadoras personales con viejos sistemas operativos de la familia MS-DOS comenzaron a registrar fechas en los años 70 o a partir de 1981 - año en que apareció la primera computadora personal IBM-PC en el mercado, con un precio que superaba los 2,500 dólares americanos.

La UNAM contaba con 25 mil computadoras destinadas tanto a profesores como alumnos y la administración operativa de la institución. De ellas, la gran mayoría era de la plataforma X86, siendo el procesador Pentium el que predominaba. Sin embargo, la incapacidad de revisar todas y cada una de las computadoras por el problema Y2K se debía fundamentalmente a que, desde mediados de 1999, la UNAM estaba paralizada en la mayoría de sus operaciones por la huelga estudiantil que no concluiría sino hasta febrero de 2000. Fue hasta después de esa fecha que se pudo realizar un diagnóstico más preciso de lo que había ocurrido por el cambio de notación de las fechas, siendo pocos los problemas y fáciles de resolver.

Las TIC en la Educación a distancia

La DGSCA continuó con sus operaciones de forma ininterrumpida durante todo el período de la huelga. El personal de la dependencia sorteó diversos obstáculos – desde las complicaciones para llegar al edificio hasta las limitaciones para adquirir refacciones, suministros y consumibles para los equipos – e intentos de cierre para continuar con el servicio a una comunidad universitaria que seguía funcionando extramuros. Fue en ese período que la dirección, junto con el Instituto Latinoamericano de la Comunicación Educativa (ILCE) y la Dirección General de TVUNAM produjeron uno de los programas de divulgación del cómputo y las telecomunicaciones más populares: SEPAcómputo, el cual inició en 1999 como una alternativa a la alta demanda para capacitar a docentes en el uso de las llamadas “nuevas tecnologías”, procurando incentivarles a una cultura informática básica que les permitiera emplear la multimedia, las herramientas de ofimática como los procesadores de palabra, las hojas de cálculo y las presentaciones electrónicas a la vez de Internet y sus herramientas más “primitivas”: FTP, correo electrónico y un incipiente pero en rápido crecimiento servicio Web. El programa inició transmisiones en el canal 4 de la Ciudad de México, dentro de una barra de programación exclusiva del ILCE llamada “Imagina”. Posteriormente se programó en el canal 22 del área metropolitana, donde permaneció al aire hasta 2011.

SEPAcómputo rompió con un paradigma que hasta su aparición en las pantallas de la televisión abierta parecía insoluble: enseñar computación fuera del aula y sin, necesariamente, una computadora frente a cada estudiante. Existieron dos claves para ello. La primera mostraba el uso de técnicas, no de productos informáticos específicos. La segunda el propio momento que vivía la Universidad. Estar fuera de las escuelas y facultades e innovar en cómo seguir educando a los universitarios incidió en la manera de diseñar las clases que se impartían por televisión. Tanta fue la penetración de este programa en el mundo hispanohablante (dada la cobertura satelital del ILCE) que por más de una década se recibían correos electrónicos lo mismo de Tijuana que de Buenos Aires, consultando a los conductores sobre diversas dudas: desde cómo formatear un disco duro hasta cómo instalar un café Internet. Un programa que originalmente estaba destinado a profesores de educación básica y superior se convirtió en una aportación social de la UNAM. Los espectadores oscilaban desde alumnos de primaria hasta jubilados de la tercera edad, personas con alguna discapacidad física o amas de casa. A la fecha que se escribe este artículo, todos los programas de SEPAcómputo están disponibles en línea gratuitamente, tanto los producidos en estudio con el apoyo de TVUNAM [1] (2008 – 2013) como los realizados para las nuevas generaciones adictas a la Internet y YouTube [2].

La videoconferencia

La DGSCA ya tenía varios centros de extensión para atender la demanda de capacitación en la Ciudad de México (Nuevo Léon, Mascarones, Coapa, Polanco y Ciudad Universitaria), la incorporación de nuevas estrategias y recursos educativos facilitó la expansión de los programas a otros públicos. Desde finales del siglo XX la UNAM había establecido las bases, junto con otras instituciones, de la Red Nacional de Videoconferencia para la Educación (RNVE), haciendo las primeras transmisiones en 1995. Para inicios del siglo XXI se disponía de más de 20 salas de videoconferencia, con equipos especializados de telecomunicaciones denominados CODECs (codificadores – decodificadores) de varios miles de dólares cada uno, interconectados en RedUNAM por enlaces dedicados de al menos 384 Kbps. Esta tecnología fue la base para la expansión de varios programas de educación a distancia, no no solo de ésta dirección, sino de toda la universidad.

La videoconferencia interactiva, digital y en tiempo real, usaba lo mejor que la tecnología de cómputo y telecomunicaciones podía proporcionar en el momento. Existían, sin embargo, diversas limitantes. Una era el costo de los equipos. Otra la inversión necesaria en las adecuaciones de espacios y los aparatos periféricos como cámaras robóticas, de documentos, proyectores, pantallas y pizarrones interactivos. Una más la capacidad de hacer videoconferencias entre más de tres sitios dentro de la misma sesión, lo que implicaba disponer de un aparato más sofisticado denominado “Puente” o “Unidad Multipunto de Videoconferencia”, con costo de varias decenas de miles de dólares y que, por tanto, solo estaba disponible en la DGSCA, lo que dio origen al Centro de Operaciones de Videoconferencia (VNOC), todavía en funcionamiento. Pero el más difícil de sortear era el enlace de telecomunicaciones. Considerando que los servicios ISDN no llegaron a ser comerciales en México sino hasta 1998, las primeras salas de videoconferencia eran un recurso escaso y complicado de operar. Pero al asociarse la red de videoconferencia con otras salas instaladas en México, así también con la incorporación del servicio dentro de las herramientas disponibles para los miembros de Internet 2 en México a través de la Corporación Universitaria para el Desarrollo de Internet (CUDI), junto con la popularización del estándar para video interactivo H.323 de la Unión Internacional de Telecomunicaciones (ITU), la primera década del siglo XXI fue testigo de la expansión de salas de videoconferencia en toda la UNAM y otras instituciones públicas y privadas del país. Tan sólo en la UNAM, hacia 2018, se dispone de más de 200 salas de videoconferencia en auditorios, salas especializadas, laboratorios y salas de juntas, siendo una de las tecnologías que más ha unificado a grupos de profesores, investigadores y alumnos, ahorrando decenas de miles de dólares en traslados, viáticos y logística para el cumplimiento de diversas actividades y objetivos institucionales.


Mobirise

Figura 1.  Fuente: Subdirección de Comunicación, DGTIC, UNAM


Infraestructura de cómputo

Hacia finales de la década de los  90, la UNAM había instalado una importante cantidad de laboratorios de cómputo en escuelas y facultades. Con el apoyo de Fundación UNAM se colocaron en espacios de bibliotecas y áreas de apoyo a la docencia laboratorios con ordenadores personales y conexión a RedUNAM. En el año 2000, el censo de cómputo arrojaba un total de 25 mil equipos propiedad de la institución. Esta cantidad se duplicó en el 2007, con 50,477 equipos. Siete años después, en 2014, el inventario llegó a 75,408 (casi un 50% más de las existentes en 2007) y en 2018 el total rebasa los 80 mil dispositivos, incluyendo tabletas, computadoras personales, servidores, equipos portátiles. Como es claro ver, durante el primer tercio del tiempo transcurrido en este siglo, el crecimiento fue mucho mayor que en los últimos seis años, prácticamente en proporción 2 a 1. Esto tiene dos razones básicas:

  • En los primeros años del siglo XXI aparecieron y se consolidaron diversas tecnologías disruptivas, entre las que destacan la Web 1.0, la conectividad a Internet, las interfaces simples de los sistemas operativos y programas de aplicación, los desarrollos multimedia apoyados en CD-ROM. En consecuencia, si se requería tener la máxima capacidad de consulta y producción de contenido digital, generalmente se usaba una computadora conectada por cable a Internet, con lector de disco compacto, teclado y ratón. Era la manera en la que se usaban y mejor explotaban éstos quipos.
  • A partir de 2007 inicia el fenómeno de la movilidad. De ahí que fueran dos las tecnologías que marcaron el paso en los últimos diez años: los teléfonos inteligentes y las redes inalámbricas. Con ellos, y todos los demás dispositivos derivados de la forma de crear aplicaciones y distribuirlas, así como los avances en la conectividad por WiFi o señal celular, el “viejo cómputo de escritorio” cedió el paso al cómputo móvil, a la hiperconectividad al alcance de un par de opciones en la tableta o el celular.

La UNAM no ha sido ajena a esta revolución del cómputo permanentemente conectado (más de manera inalámbrica) y de bolsillo. En las recientes encuestas publicadas por la DGTIC (Dirección General de Cómputo y de Tecnologías de Información y Comunicación, desde el  27 de septiembre de 2010 cambia de denominación la Dirección General de Servicios de Cómputo Académico a Dirección General de Cómputo y de Tecnologías de Información y Comunicación), denominadas TICómetro [3], se muestra que más del 97% de los estudiantes universitarios, en promedio, disponen de un teléfono inteligente o tableta, y más del 80% tienen una computadora en casa o portátil. Esta masificación de la tecnología, convirtieron  al cómputo y a las redes en un elemento más de consumo a precios significativamente inferiores que en generaciones previas, es lo que explica una menor cantidad de computadoras agregadas al parque operativo de la UNAM. Incluso se ha detectado un fenómeno aún más interesante: la tendencia al arrendamiento de equipo de cómputo en lugar de su compra inmediata, teniendo esquemas de capitalización que son más convenientes para organizaciones del tamaño de la Universidad, ya que no se desembolsa una cantidad relevante al inicio de un contrato al operar bajo un esquema de servicios administrados. Este es un punto clave en la denominada “consumerización” del cómputo, ya que no se identifican los equipos como algo patrimonial, sino como un servicio, lo que reduce la carga de pasivos para la institución.

En lo que respecta a servidores y estaciones de trabajo, el crecimiento en lo que va de siglo ha casi a la inversa del equipo de cómputo personal, si se considera que al año 2000 se tenían 180 equipos con esta función, y para 2018 hay un total de 2,042, lo que lleva a concluir que el cómputo por un lado se ha masificado (equipos personales) más del lado de los usuarios y las áreas especializadas requieren equipos más sofisticados. También aquí hemos sido testigos de la aparición de modernas tecnologías en el cómputo administrativo, científico y central, siendo la más relevante de todas la virtualización de servidores, lo que ha permitido la creación de centros de datos que rememoran los viejos tiempos del modelo anfitrión – terminal, es decir: de un gran equipo de cómputo que tenía terminales de mínimas capacidades de procesamiento, usando sistemas de información centrales. En la última década del siglo XX este modelo estaba completamente rebasado por el esquema cliente – servidor, lo que hizo que muchas entidades y dependencias universitarias adquirieran computadores de mayor capacidad para otorgar servicios locales y, en ocasiones, hospedar aplicaciones como servidores Web o de archivos. Sin embargo, este modelo que tuvo su mayor expansión en la primera década de este siglo, dio paso a la virtualización sustentada tanto en las capacidades significativas de los nuevos procesadores centrales (con múltiples núcleos e hilos de ejecución simultánea), mayores rangos de memoria RAM y mayor conectividad. Es así que desde 2013 la UNAM cuenta con un centro de datos en la DGTIC, donde a la fecha se virtualizan más de 450 servidores con las más variadas aplicaciones. Sistemas de información, sitios Web, correo electrónico, servidores de archivos o respaldos de otros sistemas, por mencionar algunas. Esto ha permitido reducir considerablemente las inversiones en equipos dispersos en la institución, a lo que se suma la consolidación de procedimientos, sistemas de respaldo, esquemas de alta disponibilidad y políticas de seguridad unificadas.

Software

Al igual que otras instituciones educativas, los programas de aplicación más usados en la UNAM corresponden a la ofimática: procesadores de palabra, hojas electrónicas de cálculo y presentaciones electrónicas. Existen otras aplicaciones que son usadas en mayor número en función del área de conocimiento o especialización, como es el caso de programas para análisis y procesamiento matemático, manejadores de bases de datos de gran volumen, procesamiento de imagen y video, por mencionar algunos. Desde 2009 la UNAM ha establecido múltiples convenios con empresas desarrolladoras de software para disponer de licenciamientos institucionales de aquellos programas con mayor demanda, lo que también ha redundado en ahorros y una política actualizada en cuanto a la protección de derechos de autor.

Paralelamente, se estableció desde 2014 una tienda de software [4] que facilita a los universitarios identificar cuáles son los programas con un licenciamiento institucional, también aparecieron las tiendas de aplicaciones móviles en las plataformas iOS y Android, en donde se resguardan al 2018 más de 30 aplicaciones actualizadas, aunque históricamente se tiene el registro de casi un centenar de aplicaciones, ya sea programadas por miembros de la comunidad o por instancias externas bajo encargo de las entidades y dependencias.

Supercómputo

Al inicio del milenio los investigadores universitarios tenían a su disposición la supercomputadora Silicon Graphics Origin 2000 (segunda generación de supercómputo en la UNAM, después de la supercomputadora Cray instalada en 1991) con 15.6 GigaFLOPS [5] de capacidad de procesamiento. Ya había iniciado el diseño de la tercera generación, que concluyó con la puesta en marcha del equipo HP AlphaServer en 2003, multiplicando 5 veces el rendimiento de su predecesora (80 gigaFLOPS). El sistema AlphaServer fue el último de tecnología RISC [6] en el supercómputo de la UNAM, y el que menor tiempo estuvo en operación. El mismo fabricabte HP en 2007 activó el cluster x86, denominado KanBalam.

Así como la supercomputadora Cray (Sirio) fue un hito en la historia del cómputo en la UNAM, México y Latinoamérica, el clúster X86 de HP (KanBalam) fue otro salto importante en la evolución del cómputo científico y numérico en la institución. Fue la primera computadora de Latinoamérica que rebasó la marca de 6 TeraFLOPS (inició operaciones con 7.11 TeraFLOPS), estuvo listada entre las primeras 250 supercomputadoras dentro del Top500 que se publica semestralmente e implicó un cambio total en la forma en la que se accedía a recursos de almacenamiento y procesamiento. KanBalam sumaba 1,368 procesadores centrales y la memoria RAM era superior a los 3 TeraBytes con un subsistema de almacenamiento en disco duro de 160 TeraBytes. Con relación a su predecesora (HP AlphaServer “Bakliz”), KanBalam era 88 veces superior en procesamiento, 94 veces superior en memoria y 160 veces superior en almacenamiento en disco.

Si bien la época de las supercomputadoras con arquitectura RISC no ha terminado (la más grande actualmente, el clúster con procesadores Power 9 de IBM que se ubica en el Laboratorio Oak Ridge de los Estados Unidos, conserva esa arquitectura) en la UNAM la quinta generación de supercómputo también fue X86 y comenzó a diseñarse en 2010 para reemplazar a KanBalam. El equipo Miztli inició sus servicios en marzo de 2013, incluyendo algunos nodos de procesamiento especializado con GPU [7]. Miztli, en un inicio, fue 17 veces superior a KanBalam, pero ha tenido crecimientos a lo largo de sus cinco años de servicio, proporcionando actualmente 236 TeraFLOPS de rendimiento y 750 TeraBytes de espacio en disco.

La UNAM publica dos veces al año una convocatoria para que sus investigadores presenten proyectos que utilicen los recursos de supercómputo. Si bien se atiende a la mayoría, en promedio cada año un 40% de los proyectos presentados no alcanzan a recibir recursos, debido a la demanda. Miztli proporciona 67 millones de horas CPU al año, que se reparten en más de 120 proyectos por semestre, pero el total de proyectos presentados es cercano a los 200.

Como resultado del Plan de Desarrollo de Supercómputo para el período 2018 – 2024, se está diseñando la sexta generación de estos equipos de alto rendimiento, con una mayor presencia de GPUs y redes internas de baja latencia para la interconexión de los nodos del clúster que superarán los 100 Gbps.

LANCAD y Delta Metropolitana

La Universidad Autónoma Metropolitana (UAM), el Centro de Investigaciones y Estudios Avanzados (CINVESTAV) y la UNAM, iniciaron la construcción de la primera red de fibra óptica obscura [8] con propósitos académicos en la zona metropolitana de la Ciudad de México desde 2007, a través de los túneles del Sistema de Transporte Colectivo – Metro. Tres campus de las instituciones están interconectados (Zacatenco, Iztapalapa y Ciudad Universitaria) con el fin de compartir recursos de supercómputo y ofrecer a investigadores en otras instituciones horas de procesamiento que de otra forma no tendrían a su alcance.

El Laboratorio Nacional de Cómputo de Alto Desempeño (LANCAD) y su soporte de telecomunicaciones por medio de la Delta Metropolitana, son un proyecto conjunto de la UAM, el CINVESTAV y la UNAM apoyado por los fondos concurrentes para Laboratorios Nacionales del Consejo Nacional de Ciencia y Tecnología (Conacyt). Desde 2011 cada  institución destina el 10 % de la capacidad de procesamiento de los clúster de supercómputo para apoyar a la investigación en otras universidades, institutos y centros. Adicionalmente se asignan los trabajos de forma independiente a la organización y bajo la premisa del tipo de librerías, procesadores y tiempo de máquina que cada uno de los proyectos presentados y aprobados requiere.


Redes de telecomunicaciones

Con más de 80 mil computadoras propias conectadas a la red institucional y a Internet, la infraestructura de telecomunicaciones en la UNAM en los últimos 20 años se ha transformado considerablemente. Lejos quedan en el tiempo las redes de diversa naturaleza y protocolos, siendo Ethernet el estándar en prácticamente todas las redes de cómputo en la UNAM (a excepción de la interconexión de nodos en la supercomputadora, que en las últimas dos generaciones ha sido del tipo InfiBand, que reemplazó a las redes FDDI, ATM y Fibre-Channel usadas en equipos previos).

Con la modernización de la infraestructura eléctrica del campus de Ciudad Universitaria (Proyecto de Media Tensión) se hizo también el cambio de gran parte de los enlaces de fibra óptica que interconectan a las entidades y dependencias, teniendo hoy en día servicios a 40 Gbps a nivel de la dorsal con capacidad de superar los 100Gbps. En las redes locales se han realizado actualizaciones importantes, sustituyendo los viejos concentradores por modernos switches que generalmente operan entre 1 Gbps y 10 Gbps.

Sin embargo, desde mediados de la primera década del siglo, las redes inalámbricas tienen una presencia y demanda indiscutibles en todas las organizaciones. La Red Inalámbrica Universitaria (RIU) inició operaciones en 2004, siendo un servicio gratuito para todos los miembros de la comunidad. Con más de 1500 puntos de acceso operativos, la RIU está presente prácticamente en todos los campus de la UNAM en el país. Con la misma cuenta de usuario los universitarios pueden ingresar a la RIU, lo mismo en el campus Juriquilla o en una sede de la Escuela Nacional Preparatoria (ENP) en la Ciudad de México, por poner un ejemplo.

Para el adecuado funcionamiento de la RIU y en lo general de RedUNAM, existen enlaces digitales metropolitanos y nacionales que interconectan las diversas redes locales. Hacia el año 2000 la mayoría de estos enlaces convergían hacia Ciudad Universitaria proporcionando el acceso a Internet para todos los campus. Los enlaces metropolitanos generalmente eran del tipo E0 a 64 Kbps y los nacionales E1 a 2 Mbps. A través de estos servicios se proporcionaba tanto la conectividad a Internet como el acceso a extensiones telefónicas digitales y videoconferencia. El uso desbordado de mayor ancho de banda por aplicaciones multimedia, sumada a la cantidad de dispositivos asociados a la red de la UNAM (al menos hay 150 mil cuentas de acceso a RIU vigentes, para igual número de dispositivos de los estudiantes y profesores universitarios) se requirió transformar la conectividad inter-campus. Hoy en día casi todas las sedes de la UNAM disponen de enlaces redundantes de al menos 1 Gbps cada uno. Un enlace es administrado por la institución como parte de sus contratos con empresas de telecomunicaciones, ya sea para conexión hacia Ciudad Universitaria o como acceso local a Internet. En otros casos (como en el bachillerato y las Facultades de Estudios Superiores en la Zona Metropolitana de la Ciudad de México) se dispone de enlaces entre 1 y 10 Gbps hacia la red NIBA (Red Nacional de Impulso a la Banda Ancha), como parte de la vinculación de la UNAM con CUDI (asociación civil de instituciones cuyo propósito desde su fundación en 1999 ha sido el fomentar mejores servicios de telecomunicaciones y aplicaciones especializadas para la academia.

Seguridad de la información y firma electrónica

Varias áreas de especialización que comenzaron a operar en la DGSCA a finales del siglo XXI, incubadas en supercómputo, florecieron hasta convertirse en servicios básicos de tecnologías de información. Tal es el caso de la Seguridad de la Información, que inició como un grupo de trabajo que soportaba parte de la operación de los servicios de supercómputo aún con la primera generación (Cray). A lo largo de los últimos 20 años este grupo de especialistas ha formado a más de 300 becarios, y algunos de estos egresados hoy son ejecutivos de la seguridad informática en puestos clave dentro de los sectores público y privado.

La Seguridad de la Información se ha posicionado como una prioridad en la UNAM. No solamente por lo que implica la protección de los sistemas y acervos de datos institucionales, sino también por la protección a la información personal de los universitarios y el garantizar la continuidad de las operaciones, pues más de un 90% de todos los servicios que la UNAM proporciona a sus estudiantes y profesores, investigadores y empleados, está apoyado de alguna forma por tecnología de información y comunicación.

Dentro de la política de simplificación de trámites con tecnología de cómputo de manera segura, en 2007 la UNAM normalizó el uso de la Firma Electrónica Avanzada (FEA), con plena validez legal y administrativa dentro de la institución y apegada a las mejores prácticas y estándares nacionales e internacionales. En 2018, más de 36 mil certificados digitales para firma electrónica tienen vigencia para acceder a una veintena de sistemas estratégicos: desde la firma de actas de calificación hasta la de contratos y adquisiciones. Este mecanismo que ha evolucionado en fechas recientes a la Firma Electrónica Universitaria (FEU) posee todas las características internacionales de los protocolos de llave pública (PKI) y es emitido por la propia Autoridad Certificadora de la UNAM. En más de 10 años de uso, la Firma Electrónica ha evitado la impresión de más de un millón y medio de documentos anualmente, sin mencionar las horas – hombre ahorradas y el impacto en la huella de carbono de la institución.

Realidad virtual y aumentada

Otro proyecto derivado de los primeros años del supercómputo fue el desarrollo de la realidad virtual y aumentada. En 2004 se inauguró el Observatorio Ixtli en la DGSCA, el primero de naturaleza inmersiva en Latinoamérica. Por medio de equipos de cómputo, sensores de movimiento, pantalla curva, proyectores de alta definición sincronizados y lentes para visualización en 3D, el Observatorio permitió el desarrollo de una treintena de proyectos cada año entre 2004 y 2010, la mayoría orientados a apoyar actividades docentes en temas tan diversos como la veterinaria y la química orgánica, los deportes y el análisis del clima.

Con la revolución de los dispositivos móviles y la hiperconectividad, la realidad aumentada ha migrado hacia los teléfonos inteligentes. En el último lustro se han desarrollado en la DGTIC más de 30 aplicaciones que incluyen realidad aumentada, mundos virtuales y visualización inmersiva, ya no solo orientadas a un auditorio, sino para uso personal con un casco de realidad virtual y un teléfono o tableta. Nuevamente, las aplicaciones están orientadas al apoyo a la docencia y la investigación.

Capacitación en cómputo y formación de recursos humanos

Hacia 2007, la DGSCA proporcionaba capacitación a poco más de 25 mil personas anuales en promedio a través de sus ocho centros de extensión: Ciudad Universitaria, Nuevo León, Mascarones, Coapa, San Agustín, Palacio de la Autonomía, Polanco y Tlatelolco. Con un catálogo que rebasaba los 160 cursos, especializaciones, diplomados y programas de actualización para el trabajo, la dirección estaba consolidada institucionalmente como una de las principales entidades de educación continua, solamente atrás de las divisiones similares en las Facultades de Ingeniería y de Contaduría y Administración.

En buena medida, la capacidad de la DGSCA, inicialmente, y luego de la DGTIC para dar servicios de educación continua se ha apoyado en el tipo de programas educativos, la disponibilidad del personal académico especializado en TIC que, día a día, suma conocimiento a su experiencia para compartirla después con los alumnos que asisten a los cursos de la dependencia. Aparece también el programa de becarios de la DGTIC que inició oficialmente en 1988, con más de 2,500 egresados, la mayoría de ellos teniendo la opción de concluir su formación profesional (titulación) como consecuencia de participar en el programa. Muchos de esos becarios se incorporaron posteriormente a la planta docente de la dependencia, ya sea como técnicos académicos o como profesores externos.

Sin embargo, con el cambio tecnológico que significó la alta conectividad, los dispositivos móviles y la simplificación de las interfaces de usuario en los sistemas operativos y los programas de aplicación, aunado a la elevada disponibilidad de contenidos multimedia en Internet, la demanda de capacitación presencial se ha reducido considerablemente en los últimos 10 años, prefiriendo los estudiantes - ya sea miembros de la comunidad universitaria o externos-  los programas de formación disponibles en línea. Actualmente más de la mitad de los alumnos de educación continua de la DGTIC atienden a las clases de forma no presencial y otro porcentaje importante lo hace de manera mixta (cierta carga académica en aulas de la dependencia y otra equivalente en la plataforma Web). Es por ello que sólo subsiste el 50% de los centros de extensión: Ciudad Universitaria, Mascarones, Polanco y San Agustín – Regina.


Los retos

Los 60 años de cómputo en la UNAM son tan solo un preámbulo de lo que está por venir. Si bien el cómputo y las telecomunicaciones universitarias nacieron como una demanda del sector investigación, actualmente es difícil ubicar un área, servicio, entidad o dependencia en lo general, e incluso universitario en lo particular, que no utilice en mayor o menor grado los servicios, infraestructura, conocimientos y experiencia acumulados por la institución en las últimas seis décadas. Pero el reto es aún mayor en lo que respecta al corto, mediano y largo plazo.

Las TIC son una de las áreas de conocimiento, investigación, aplicación y negocio más dinámicas comparativamente con otros sectores de la industria. Cada año se suman miles de millones de dispositivos a la conectividad por Internet, aparecen miles de nuevas amenazas a la seguridad informática diariamente, cientos de aplicaciones móviles llenan los dispositivos en los bolsillos de miles de millones de personas cada semana, las redes sociales son omnipresentes (con sus ventajas y desventajas) y la demanda de acceso a Internet y el consumo de datos parece no tener un límite. La mayoría de las empresas con más ganancias en el último lustro, y mejor posicionadas en los diversos análisis de especialistas en materia de rendimiento bursátil, están relacionadas con tecnología de información. La corporación más cara en la historia, con valor de mercado superior a un billón de dólares americanos (Apple) rebasa por mucho a las tradicionales industrias (automotriz, financiera, manufacturera, entre otras). Eso habla claramente de la pujanza de las tecnologías de la información en el inicio de la llamada Cuarta Revolución Industrial: la revolución de la sociedad de la información y el conocimiento.

Las instituciones de educación superior (IES) no han sido - y no pueden ser-  ajenas a esta tendencia mundial. La productividad de las economías nacionales, el desarrollo social y las posibilidades de cada individuo para realizar un proyecto de vida dependen en buena medida de la resolución de diversos retos. Por el compromiso con sus estudiantes y su planta académica y de investigadores, pero fundamentalmente por su razón de ser en la nación, las instituciones de educación e investigación deben atender múltiples retos en el marco de esta revolución del conocimiento, la información, la tecnología, la economía y la sociedad en su conjunto. Algunos de los más claros para la siguiente década son:

  • El reto de la educación. Es mandatorio modernizar la forma en la que se educa, se accede al conocimiento, se evalúa y se actualiza a los alumnos y profesores. No es factible conservar viejos métodos que eran adecuados hace no décadas, sino siglos. Los estudiantes tienen acceso a un sinnúmero de contenidos – no todos ellos validados por una instancia académica – en línea, sin restricciones. Las IES deben impulsar el uso y apropiación de las TIC entre su planta académica a fin de que contenidos, materiales, procesos y evaluaciones exploten de mejor manera todas las ventajas competitivas que las segundas permiten. Debe ser una prioridad en los planes de desarrollo institucional la incorporación de las TIC como herramientas para la docencia, tan indispensables como el pizarrón y los libros. Pero no se debe caer en la tentación de que “la tecnología por sí misma arregla las cosas”. Ninguna tecnología de información es “buena o mala”: simplemente son herramientas. Dependerá de la aceptación de cómo esas tecnologías son usadas de la mejor manera para elevar la calidad de sus programas y, en consecuencia, la eficiencia terminal de sus estudiantes.

  • El reto de la investigación. Las publicaciones digitales, el supercómputo y las TIC, han invadido prácticamente todos los ámbitos de la investigación científica y humanística. Es difícil encontrar un investigador en nuestro país que no requiera de algún tipo de tecnología para realizar su trabajo, lo mismo una simple cuenta de correo electrónico que requiere horas de procesamiento, librerías de software y almacenamiento masivo en un clúster de cómputo de alto desempeño. También es difícil identificar alguna área de conocimiento que no se vea fortalecida con la aplicación de programas, recursos físicos y procesos optimizados con computadoras y redes de datos. De acuerdo con lo anterior  la investigación requiere más cómputo, más espacio de almacenamiento, bóvedas digitales con grandes acervos que resguarden el patrimonio digital de códigos y datos producto de la búsqueda de nuevas soluciones a retos nacionales e internacionales con apoyo de los medios y recursos digitales.

  • El reto de la difusión. En una sociedad altamente mediática, donde ya no se tienen unos cuantos canales de televisión o estaciones de radio al alcance de un botón, sino cientos o miles de fuentes de información, la difusión de la cultura debe apropiarse de todos estos avances para extender lo que somos como pueblo y nación y toda nuestra herencia cultural, innovando en formas de presentar los contenidos, de acercar la gente a la cultura y viceversa. Las TIC pueden ser la gran oportunidad para la difusión cultural de cumplir mejor su cometido, de erradicar la etiqueta de exclusividad para algunos sectores de la población. Significan estas herramientas digitales la manera más simple y barata de masificar la cultura, desde estimular la lectura y la escritura con el apoyo de un teléfono inteligente hasta transmisiones permanentes en vivo o en demanda de conciertos, exposiciones virtuales, eventos artísticos y, en general, promover la pléyade de actividades y acervos en responsabilidad de las áreas de difusión cultural.

  • El reto de la administración. Hacer más eficiente a las organizaciones ha sido un efecto, si se quiere colateral, de las TIC en la educación superior y la investigación. Pero también ha impactado la manera en la que operan las organizaciones. Ahorros en impresión, tiempos reducidos para respuesta a solicitudes o servicios, protección a los datos, uso eficiente de los presupuestos y en lo general de todos los recursos de las IES, son sólo algunas de las consecuencias de la introducción de las TIC a casi todos los niveles administrativos. Pero falta mucho por hacer: expandir la firma electrónica, implementar las IES 100% digital en todos sus servicios, digitalizar sus acervos y sistematizar el acceso, la consulta y la recuperación de la información para sustentar lo mismo la transparencia y rendición de cuentas que la búsqueda de la calidad, oportunidad y eficiencia, junto al apropiarse de la alta disponibilidad de los teléfonos inteligentes y sus aplicaciones, el control de operación con la Internet de las cosas, la mejora de la seguridad en los campus por sistemas de video vigilancia con reconocimiento de rostros, patrones y comportamientos apoyados en machine learning e inteligencia artificial, son sólo algunas de las áreas de oportunidad de la administración y las TIC.

  • El reto de la ecología y la sustentabilidad. Toda esta tecnología requiere energía. A la vez que permite ahorrar cantidades ingentes de papel, combustibles, traslados, refacciones y otros recursos, también ha incrementado el consumo energético de la especie. Aunque el consumo energético por unidad de información es sustancialmente menor hoy en día a lo que era hace 50 o 60 años, también el volumen de datos que por fracción de segundo se procesa, transforma, registra o trasmite es exponencialmente superior. Esto está poniendo más presión sobre los recursos energéticos y naturales, lo mismo para mantener en operación las redes y centros de datos, recargar teléfonos inteligentes o activar computadoras personales, que para fabricar todas esas tecnologías. Las IES, sin lugar a dudas, son el espacio natural para crear nuevas tecnologías, protocolos y procedimientos que busquen un desarrollo y expansión eficiente de las TIC observando las reglas de sustentabilidad y protección al entorno.

  • El reto de la gobernanza. Parece que el mundo está dividido en dos grupos en lo que refiere a la gobernanza de las TIC. Por un lado, hay quienes afirman que una gobernanza inexistente o poco restrictiva es lo que ha permitido el desarrollo del que somos testigos.  En lo que refiere a la gobernanza de las TIC, parece que hay dos grupos. Por un lado, hay quienes afirman que una gobernanza inexistente o poco restrictiva es lo que ha permitido el desarrollo del mundo del que somos testigos. Por el otro existen quienes aseguran que cada día se hace más patente la necesidad de un cuerpo normativo, iniciado en cada organización, para regular todo el uso, aplicación e integración de la tecnología, particularmente en la educación superior y la investigación. Cada institución tiene características propias y singulares que deben ser el marco para establecer un modelo de gobierno de las TIC que considere no sólo la restricción como parámetro, sino el estímulo a la innovación, el aprender de los errores, el reinventarse continuamente y procurar la participación de toda la comunidad.

  • El reto de la innovación. “Inteligencia artificial”, “Big Data”, “Machine Learning”, “hiperconectividad”, “sociedad de las prisas”, “inteligencia del todo”, “Internet de las cosas”, son solo algunos de los conceptos que están más en boca de la gente que se dedica a las TIC, ya sea como proveedores de servicios, responsables de infraestructura, desarrolladores o innovadores. Todas estas nuevas tecnologías, disruptivas por sí mismas y potenciadas en el contexto de las necesidades humanas, imponen la generación de nuevos profesionales, especialistas y proveedores de servicios que serán multidisciplinarios, abarcando no sólo su área de conocimiento sino muchas más. No es factible aplicar la inteligencia artificial en la educación, o el Big Data en la investigación, el machine learning en la difusión (o sus versiones mezcladas) sólo sabiendo usar uno o dos programas de computación. La integración de estas tecnologías y en consecuencia los beneficios que prometen a la sociedad en general y las IES en particular dependerá de la transformación institucional. No podemos seguir haciendo lo mismo de la misma manera, ni con los mismos recursos. El mundo sigue cambiando (decir que “cambió” sería hacerle un magro favor) y mientras muchas organizaciones en todo el mundo han aceptado y adoptado el cambio como una constante o han entendido que la transformación digital es permanente, otras instancias consideran que podrán seguir haciendo lo mismo que los últimos decenios o siglos de la misma manera. Estas últimas están destinadas a, en el mejor de los casos, una presencia en un ámbito local reducido. Las primeras permanecerán y evolucionarán.

  • El reto de la responsabilidad. ¿Cómo esperamos que sea el México del siglo XXI? ¿Y el del siglo XXII? ¿Qué perspectiva de desarrollo económico, social y personal deseamos presentarle a los estudiantes de las actuales y futuras generaciones? ¿Cómo vislumbramos en 5, 10, 20 o 50 años a nuestras instituciones de educación superior, dónde queremos que estén ubicadas? ¿Cuáles serán los problemas a los que nos enfrentaremos como personas, como nación y como especie, ante el cambio climático, la mayor explotación de los recursos naturales planetarios, el crecimiento de la población, los sueños y las esperanzas de cada individuo, el crecimiento de una clase media que busca permanentemente su acenso y la satisfacción de sus necesidades -reales o inducidas - la competitividad de las empresas, el desarrollo tecnológico, el incremento en el consumo de todo y por todos?

Estas son algunas de las preguntas y retos que, más allá de equipos, servicios, enlaces, recursos, procesadores, memorias, discos, cables, programas, códigos, algoritmos y antenas, debemos resolver pronto, rápido, eficientemente y en conjunto.

Bibliografía

[1] SEPAcómputo, “Material histórico 1999-2005,” DGTIC, UNAM, [En línea] Disponible en: http://www.sepacomputo.unam.mx/?page_id=20 [Consultado en noviembre 2, 2018].

[2] sepacómputo, “UNAM Sepacomputo canal,” DGTIC, UNAM,  [En línea] Disponible en:  https://www.youtube.com/channel/UCFaHjPtEWOO7RWyREEj094g  [Consultado en noviembre 2, 2018].

[3] TICómetro, DGTIC, UNAM, [En línea] Disponible en: https://ticometro.unam.mx/ [Consultado en noviembre 2, 2018].

[4] Tienda de Software de la UNAM, DGTIC, UNAM, [En línea] Disponible en: http://www.software.unam.mx [Consultado en noviembre 2, 2018].

[5]   FLOP: Operación de punto flotante por segundo. Un GigaFLOP corresponde a mil millones de operaciones de punto flotante. Un TeraFLOP a un billón (millón de millones) de operaciones de ese tipo.

[6]   RISC: Reduced Instruction Set Computer. Este tipo de procesadores emplean un código mínimo de instrucciones, a diferencia de sus competidores CISC (Complex Instruction Set Computer) que requiere de la conversión a un microcódigo propietario partiendo de las instrucciones orignales)

[7]  GPU: Graphic Processing Unit. Estos procesadores derivan el procesamiento de imágenes y videojuegos, y están especializados en grandes volúmenes de cálculos numéricos.

[8]   Recibe el adjetivo de “obscura” debido a que no proporciona servicios públicos y tampoco es administrada por una empresa de telecomunicaciones (carrier).