Internet ayer, hoy y mañana

Page 1

1


Título: Internet ayer, hoy y mañana Autor: Raymond Colle Lugar y fecha: Santiago de Chile, 2014 Ilustración de portada (fondo): Acceso a internet por satélite y cables (El mapa de los cables submarinos es un recurso libre de TeleGeography, www.telegeography.com)

El autor es doctor en Ciencias de la Información y analista de sistema; profesor jubilado de la Escuela de Periodismo de la Pontificia Universidad Católica de Chile, ex-investigador del Centro de Estudios Mediales de la Universidad Diego Portales (Santiago de Chile). Ha mantenido un sitio web y una base de datos de noticias del mundo digital desde el año 2000.

Licencia Creative Commons Queda autorizada la reproducción total o parcial de este libro, en cualquier formato o soporte, salvo por explícita voluntad en contra del autor o en caso de ediciones con ánimo de lucro, señalando siempre la fuente. Las publicaciones donde se incluyan textos de esta publicación serán ediciones no comerciales y han de estar igualmente acogidas a Creative Commons. Harán constar esta licencia y el carácter no venal de la publicación.

2


TABLA Prólogo p.8 1. Precursores p.12 1.1. Fundamentos p.12 1.2. Anticipos de la información digital p.14 2. Historia de Internet p.17 2.1. Antes de la web p.17 2.2. Nace la WWW p.18 2.3. La explosión comercial de la web p.21 3. Dimensión y componentes p.22 3.1. Dimensión p.22 3.1.1. Usuarios p.22 3.1.2. Empresas p.27 3.1.3. Contenido p.28 3.1.4. Tráfico p.31 3.2. World Wide Web p.34 3.2.1. Web 1.0, 2.0 ¿ y 3.0 ? p.34 3.2.2. El ámbito de la web p.37 3.3. La “Internet profunda” (“Deep Web”) p.38 3.3.1. La “nube” p.39 3.3.2. Las redes privadas p.41 3.3.3. “Dark Net” p.44 3.3.4. “Big data"” p.45 3.3.5. ¿Una internet sin servidores? p.50 3.3.6. Internet cuántica p.51 3.3.7. IoT (Internet de las cosas) y gadgets p.51 3.3.7.1. Avances p.51 3.3.7.2. Objetos destacados p.55 3.3.7.3. Impacto p.59 3.4. Internet móvil p.61 3.4.1. Internet en telefonía p.63 3.4.2. Fotografía digital p.64 3.4.2.1. Auge de la fotografía digital p.65 3.4.2.2. Álbumes y depósitos p.65 3


3.4.2.3. Autofotos (selfies) p.68 3.4.4. Aplicaciones móviles p.68 3.4.5. Telemedicina y “e-salud” p.69 4. Funciones p.72 4.1. Correo y mensajería p.72 4.1.1. e-Mail p.72 4.1.2. Mensajería p.73 4.2. Streaming p.76 4.2.1. Música p.76 4.2.2. Cine – TV p.81 4.3. Telefonía y vídeo IP p.88 4.3.1. Telefonía IP p.88 4.3.2. Videoconferencia IP p.90 4.4. Redes sociales p.91 4.4.1. Usuarios p.92 4.4.2. Empresas/Servicios p.99 4.4.2.1. Facebook p.99 4.4.2.2. Google+ p.106 4.4.2.3. Twitter p.107 4.4.2.4. Linkedin p.113 4.4.2.5. Redes sociales anónimas p.115 4.4.2.6. Otras redes p.115 4.4.2.7. Login social p.116 4.4.3. Audiencia social de radio y televisión p.117 4.4.4. Participación cívica p.119 4.5. Comercio p.120 4.5.1. e-Comercio p.120 4.5.2. e-Dinero p.126 4.5.3. Publicidad p.129 4.5.4. Mercadeo social p.130 5. Los problemas de la red p.133 5.1. El control de la red p.133 5.2. Neutralidad p.138 5.2.1. Posición de los gobiernos p.138 5.2.2. Discusión mundial p.139 4


5.2.3. Posición de las empresas p.141 5.3. Privacidad p.144 5.3.1. Un cambio de límites voluntario p.144 5.3.2. ¿El “Gran Hermano” al acecho? p.147 5.3.3. Los espías comerciales p.158 5.3.3.1. Retención de datos por proveedores p.160 5.3.3.2. El espionaje publicitario p.163 5.3.3.3. Los corredores de datos p.164 5.4. Censura p.165 5.5. Seguridad p.166 5.5.1. Operación de la web p.166 5.5.2. Ciberdelincuencia p.167 5.5.2.1. Formas p.167 5.5.2.2. Extensión y efectos p.171 5.5.2.3. Espionaje p.175 5.5.3. Ciberguerra p.176 5.5.3.1. Guerra informática (I-War) p.176 5.5.3.2. Ciberguerra de red (Netwar) p.179 5.5.3.3. Guerra cibernética (Cyberwar) p.180 5.5.4. Criptografía p.180 5.6. Derechos de autor p.181 5.6.1. Legislación p.181 5.6.2. El control de derechos en la web p.184 5.6.3. Diferentes problemáticas p.186 5.6.4. La cultura como negocio p.189 5.7. El olvido p.189 6. Periodismo digital p.192 6.1. Los lectores p.192 6.2. Cambios económicos p.196 6.2.1. Ingresos p.196 6.2.2. Capital de riesgo p.199 6.2.3. Los muros de pago (paywalls) p.201 6.3. Del medio tradicional a la web y las apps p.205 6.3.1. Cambios técnicos p.205 6.3.2. Opinan los editores p.211 5


6.4. Censura 6.4.1. Censura política 6.4.2. Participación de lectores 7. Educación 7.1. Difusión del e-learning 7.2. Orígenes del e-learning 7.3. Bases de proyectos de e-learning 7.4. Tipos de proyectos de e-learning 7.4.1. Manuales digitales 7.4.2. Juegos serios 7.4.2.1. Juegos de simulación 7.4.2.2. Juegos de instrucción 7.4.2.3. Juegos de evaluación 7.4.2.4. Juegos de investigación 7.4.2.5. Tutoría “gamificada” 7.4.2.6. Hipernovela 7.4.3. Cursos masivos abiertos en línea 7.4.4. Preparación docente 7.5. Relevancia 8. Efectos individuales y sociales 8.1. Efectos individuales 8.1.1. Cambios biológicos y psíquicos 8.1.2. Huellas personales 8.1.3. Niños, pantallas y redes 8.1.4. Los padres frente a los niños 8.1.5. Jóvenes 8.1.6. Adultos 8.1.7. Sentimientos en la red 8.1.8. Adicciones 8.2. Efectos culturales y sociales 8.2.1. Cultura y saber 8.2.2. Hegemonía norteamericana 8.2.3. Relaciones sociales 8.2.3.1. Transformaciones globales 8.2.3.2. Búsqueda de parejas 6

p.212 p.213 p.214 p.216 p.218 p.220 p.222 p.223 p.224 p.224 p.225 p.226 p.226 p.227 p.227 p.228 p.229 p.230 p.232 p.234 p.234 p.235 p.237 p.239 p.241 p.242 p.247 p.248 p.249 p.252 p.253 p.255 p.257 p.257 p.259


8.2.3.3. Malas prácticas p.259 8.2.3.4. Cultura colaborativa p.260 8.2.4. Empresas p.261 8.2.5. Comercio p.263 8.2.6. Nuevas profesiones p.263 8.3. Efectos políticos p.263 8.3.1. Movimientos insurgentes p.263 8.3.2. Política tradicional renovada p.266 8.4. El poder en la red p.268 8.4.1. Los detentores del poder p.268 8.4.2. El escaso poder de los particulares p.271 9. Prospectiva p.274 9.1. El futuro próximo p.274 9.1.1. Augurios estadísticos p.277 9.1.1.1. Internet p.277 9.1.1.2. Relaciones sociales p.281 9.1.1.3. Comercio y empresas p.286 9.1.1.4. Medios de comunicación p.291 9.1.1.5. Educación p.297 9.1.2. Las relaciones humanas y tecnológicas p.301 9.1.3. La política p.302 9.1.4. Seguridad vs. privacidad p.303 9.1.5. ¿Una internet diferente? p.305 9.2. Transición p.309 9.2.1. En la frontera del caos p.309 9.2.2. El modelo del salto cualitativo p.311 9.3. Perspectivas lejanas p.315 9.3.1. La infoesfera p.316 9.3.2. Personalización p.316 9.3.3. Noosfera p.319 9.3.4. Cambios en la “psicosfera” p.320 9.3.5. Saber, poder y ser p.322 9.3.6. Energía humana y esfera espiritual p.324 Conclusión p.329 Bibliografía p.332 7


Prólogo

En 1969, acababa de terminar mi licenciatura en la universidad cuando pude ver por televisión los primeros pasos del hombre en la Luna. Fue una hazaña de la astronautica y también de la computación. El Apollo11 llevaba a bordo el Apollo Guidance Computer (AGC), diseñado en el Instituto Tecnológico de Massachusetts (MIT) y uno de los primeros computadores basados en circuitos integrados. Pesaba 30 kilogramos y tenía una frecuencia de 1.024 Hz y una memoria RAM de 2048 palabras. ¡Un smartphone de hoy es cien mil veces más poderoso! Mi primer encuentro con la computación fue en 1975, cuando asistí a un curso de “Introducción a la computación para ejecutivos”, que era en realidad un curso de programación en lenguajes Fortran y Cobol. Se programaba en esa época mediante tarjetas perforadas, en las que se codificaban las instrucciones (80 caracteres por 8


tarjeta). No me fue muy útil en ese momento pero me dejó preparado para lo que iba a surgir a partir de los años 80. En 1982, pude adquirir un microcomputador Sinclair ZX81 (de 1Kb de RAM), cuyos programas se conservaban en cassettes de audio y un televisor en blanco-negro servía de monitor. Los PC empezaban a aparecer en las empresas y pronto pude tener acceso a un Apple II+. Al mismo tiempo, los medios de comunicación se hacían con ellos y empezaban a digitalizar sus archivos. Fue la razón por la que viajé de Chile a Europa, para conocer este tipo de experiencia en España, Francia, Gran Bretaña y Bélgica. El viaje también me permitió conocer los primeros medios digitales de información: el teletexto (transmitido por televisión) y el viewdata (transmitido por teléfono) [Ver Cap.2]. Así, en 1983, empecé a difundir esta nueva realidad de los medios entre mis alumnos de periodismo y a prepararlos a través de una asignatura llamada “Procesamiento de información”, centrada en la problemática de la conservación digital y uso de información noticiosa, abordando tanto el modo de operar de la memoria humana (ciencias cognitivas) como de las memorias artificiales (bases de datos), especialmente mediante sistemas de análisis y clasificación. También me interesé por los sistemas de autoinstrucción, traspasando toda la información de esta asignatura al sistema Hypercard que venía en los computadores Macintosh, combinando teoría con guía de estudio en forma de juego (lo que, hace poco, ha sido llamado ‘gamificación’). Arriba, una vista de una pantalla inicial del mismo. En 1994, fuí invitado a participar en la puesta en marcha del sitio web de mi universidad, y éste nació para la comunidad el año siguiente. Ahí también fuí el primero en desarrollar y ofrecer, en 1997, un curso a distancia por web, titulado “Conceptos Básicos de Computación”, 9


ofrecido como optativo a todos los alumnos de la universidad. También tenía un tutorial “gamificado”. En el año 2000, desarrollé el sitio web del Centro de Estudios Mediales de la Universidad Diego Portales, abriendo en él una revista digital llamada “Temas de Tecnologías Digitales de Comunicación”, que reunía a diario noticias del área, investigaciones propias y referencias a artículos de interés, todo conservado y clasificado en una base de datos, con su propio motor de búsqueda y estadísticas en tiempo real. Después de dejar este centro, a inicio de 2005, seguí ampliando esa base de datos a través -primero- del blog y luego del sitio web “Notibits” hasta fines de 2014, publicando también varios artículos derivados de los datos acumulados (ver al final de la Bibliografía). Esta base de datos y algunos de estos artículos son fuentes del presente libro. Es fácil deducir que he sido observador y actor de los avances en materia de docencia y difusión de información en formato digital. Toda mi carrera a coincidido con el período más significativo de este fenómeno, por lo que el presente trabajo es también un testimonio de lo vivido y no una mera recopilación de datos ajenos. He visto y usado los primeros PC, el primero con una memoria RAM de 1Kb hasta el actual con una RAM de 4GB, cuatro millones de veces mayor, desde las tarjetas perforadas de mi primer programa hasta las páginas web de mi 10


último sitio web con bases de datos en SQL y un programa de análisis de textos en PHP y los respaldos de hoy en tarjetas microSD, pasando por las cassettes, los floppy disks y diskettes de diversos tamaños. Pocas vez utilicé un mismo computador por 5 años seguidos, lo que se estima su duración funcional normal. Compré un lector de e-libros (ereader) hace 3 años, y este tipo de equipo ya bate en retirada, reemplazado por las tabletas (a las que me convertí también). Pocas innovaciones duran ya 10 años en el sector de la electrónica. Los diversos modelos de smartphones no circulan ya más de 2 años en el mercado. Las descargas y el streaming reemplazan cada vez más los CD y DVD. Los teléfonos fijos están en retirada y en pocos años desaparecerán con toda seguridad junto con los móviles básicos. Pero no hablaré aquí de aparatos sino de lo que es posible hacer y de lo que se hace con ellos, desde que surgieron en el siglo pasado. Y de lo que podemos, quizás, prever para el futuro, al menos inmediato. Se necesitaron 50 años para que 100 millones de personas utilizaran un teléfono. Catorce años bastaron para llegar a 100 millones de usuarios de PC y siete para la misma cantidad de usuarios de Internet. No puede ser más clara la importanica de este hecho e importante sus consecuencias.

Numerosos datos estadísticos han sido incluídos en los capítulos que siguen, con fin ilustrativo, ya que sin ellos sería imposible dimensionar la realidad. Anque han sido actualizados hasta donde fue posible, debe tomarse necesariamente en cuenta la fecha correspondiente.

11


1. Precursores 1.1. Fundamentos No habría internet sin computadores con la llamada arquitectura de Von Neumann y no habría computadores sin el álgebra binaria de Boole y sin electricidad. Quién descubrió la electricidad, inventó también el interruptor que, sin que lo imaginara, introducía la posibilidad de aplicar álgebra binaria a su manejo y, así, la transmisión de bits gracias a la telefonía de Antonio Meucci 1, y los trabajos de Shannon. En 1847, a los 32 años, el británico autodidacta George Boole publicó “El análisis matemático del pensamiento”, que le valió una cátedra en el Queen's College de Dublin. En 1854 publicó su obra magna “Las leyes del pensamiento”. En estas obras desarrollaba una nueva álgebra consistente en un método para resolver problemas de lógica que recurre solamente a los valores binarios "1" y "0" y a tres operadores: "AND" (y), "OR" (o) y "NOT" (no). A partir de esta “álgebra binaria” se ha desarrollado posteriormente lo que conocemos hoy como "código binario", que utilizan todos los computadores actuales. Alrededor del año 1857 Antonio Meucci construyó un teléfono para conectar su oficina con su dormitorio, ubicado en el segundo piso, debido al reumatismo de su esposa. Como carecía del dinero suficiente para patentar su invento, lo presentó a la Western Union, que no le prestó atención y promocionó después el “invento” de Graham Bell. Alexander Graham Bell, descubrió en 1876 que, para transmitir voz humana, debía utilizar una corriente continua. Construyó y patentó, unas horas antes que su compatriota Elisha Gray, el primer teléfono capaz de transmitir y recibir voz humana con toda su calidad y timbre.

1

El Congreso de Estados Unidos reconoció en 2002 que éste fue el inventor del teléfono, lo cual ocurrió en 1857, mientras Alexander Graham Bell fue quien lo patentó en 1876.

12


Charles Babbage (Inglaterra, 1792-1877) desarrolló un modelo conceptual de máquina que llamó “Motor analítico”, anticipando la arquitectura de los computadores de hoy al prever un “molino” (“mill”), que sería el centro lógico (equivalente a la unidad aritmética de hoy), una unidad de control y una memoria. Le segundó su amiga Augusta Ada Byron (1815-1852), quien entendió que, en esencia, ésta era una máquina capaz de manipular símbolos siguiendo reglas definidas, y que no había ninguna razón por la cual estos símbolos sólo debieran ser números y ecuaciones. Escribió, por ejemplo, que “el Motor podría componer elaboradas y científicas piezas musicales de cualquier grado, complejidad o extensión”. En 1937, Claude Shannon (1916-2001) demostró definitivamente que la programación de futuros computadores era un problema de lógica más que de aritmética. Con ello señalaba la importancia del álgebra de Boole, pero -además- sugirió que podían usarse sistemas de conmutación como en las centrales telefónicas, idea que sería decisiva para la construcción del primer computador, el que siguió justamente este modelo. Con posterioridad y con la colaboración de Warren Weaver, Shannon desarrolló lo que llamó “teoría matemática de la comunicación”, estableciendo el concepto de “negentropía” (la información reduce el desorden) y la unidad de medida del bit (binary digit), universalmente conocida y aplicada tanto en telecomunicaciones (que es el campo a partir del cual trabajaron Shannon y Weaver) como en informática. En 1947, el matemático de origen húngaro, John Von Neumann, trabajaba en el laboratorio atómico de Los Alamos cuando se encontró con uno de los constructores del ENIAC (Electronic Numerical Integrator and Calculator), el primer computador electrónico, compuesto de 17.468 válvulas. Compañero de Einstein, Goedel y Turing en Princeton, Von Neumann se interesó por el problema de la necesidad de recablear esta máquina para cada nueva tarea. En 1949 encontró y desarrolló la solución a este problema, consistente en poner la información sobre las operaciones a realizar en la misma memoria utilizada para los datos y escribiéndola de la misma forma, es decir en código binario. Proyectó así el EDVAC, el modelo de las computadoras que seguimos utilizando hoy, con una 13


estructura muy similar a la sugerida por Babbage. Se habla desde entonces para ello de la “arquitectura de Von Neumann”.

1.2. Anticipos de la información digital El antecesor de la World Wide Web fue el videotexto, nacido a principio de los años setenta, cuando los técnicos de la televisión pública británica (BBC) inventaron lo que se consideró un nuevo medio de comunicación con gran futuro. En 1974 se iniciaron las transmisiones bajo el nombre de CEEFAX (de “see facts”), por las dos cadenas de la BBC, y con el nombre de ORACLE en la cadena de la ITV (televisión independiente de Gran Bretaña). La administración postal británica inició pruebas similares en 1976 e implantó el sistema en forma definitiva en la red telefónica en 1979, con el nombre de PRESTEL. Así nacían las dos principales modalidades del videotexto: el “teletex” (teletexto) y el “viewdata” (videodatos). El teletex es un sistema de un solo sentido que transporta datos digitales en las señales emitidas por TV, insertando sus mensajes en las líneas no utilizadas del intervalo horizontal de los cuadros. Era un servicio de información destinado al gran público, consistente en entregar textos y gráficos a través de la pantalla del televisor, sea en el lugar de las imágenes normales de televisión, sea sobreimpresas a éstas. Había que usar un televisor normal y un decodificador de la señal de texto o bien un microcomputador, siendo posible para el usuario elegir las páginas que deseaba consultar mediante un pequeño teclado. Las páginas seleccionadas aparecían en pantalla y permanecían el tiempo que uno quisiera. En casi todos los países europeos en que se implantó el sistema, como también en Canadá, el texto aparecía en una pantalla de 24 líneas y 40 caracteres por línea. El texto o la imagen (dibujo) era digital, como en los computadores. Por ello -si se utilizaba un televisorera necesario un decodificador que restituía una imagen televisiva normal. Pero la ventaja consistía en

14


que en vez de codificar cada punto luminoso de las líneas barridas por una cámara, se codificaban en modo binario los caracteres (letras, cifras y signos de puntuación) y bloques de puntos (para los gráficos), lo cual permitía concentrar la imagen de una pantalla en 2 ó 3 líneas en vez de las 525 ó más de una transmisión normal. Un telespectador con un receptor teletex poseía un teclado de control semejante a una calculadora pequeña de bolsillo. Pulsando ciertas teclas, podía ordenar al televisor de su casa que cerrara el programa regular de la pantalla y exhibiera, en cambio, “páginas” de información alfanumérica o gráfica que el estudio de TV estaba actualizando continuamente. Una o varias páginas de índice decían al espectador qué información podía hallar en la página numérica tal o cual. La elección de la adecuada le traía artículos tales como titulares de noticias, resultados deportivos, previsiones meteorológicas, entretenimientos o guías de compras, y otra variedad de material de interés público. Un sistema de teletexto básico limitaba al usuario a la información que la redacción del estudio de TV decidía dar, y no existía ningún método de “tiempo real” mediante el cual se pudiera pedir información adicional o de otra clase. Aunque la implantación de los sistemas fue lenta por la dificultad de atraer a los primeros proveedores de información, su uso se extendió a muchos países europeos. El teletexto era un medio de muy bajo costo, por cuanto la emisión requería también pocos equipos (un micro-computador con un disco magnético de mediana capacidad y un adaptador-sincronizador de señal, que insertara éste en la onda normal) y poco personal especial: habitualmente un dibujante y una digitadora. Los contenidos eran provistos por los servicios ordinarios del canal de televisión. El viewdata fue el antecesor más directo del WWW: un sistema interactivo (de dos sentidos) que permitía al espectador solicitar información de un banco de datos (servidor), generalmente utilizando una línea telefónica. La información aparecía en la pantalla del computador de la oficina o del receptor doméstico especial y podía ser seleccionada mediante “menús”.

15


A diferencia del teletex que era gratuito (aparte del costo del decodificador), en un sistema de viewdata no sólo había que comprar la consola (o computador) y pagar el teléfono: también había que retribuir el servicio mismo para lo cual -salvo si se trataba de publicidad- cada página contenía una información del costo de su consulta. El valor total se indicaba al terminar la interacción (en el momento de desconectarse) y se reclamaba mensualmente. Francia demostró la validez e importancia de este nuevo medio de información/transacción al llegar a mediados de 1986 a 1,8 millones de terminales de su “MINITEL” instalados y un total acumulado de 122 millones de llamados. La compañía francesa de teléfonos instalaba ese año -gratuitamente- de 80 a 100 mil aparatos al mes. France Telecom ofreció por un tiempo a las empresas un software que permitía que sus páginas web fuesen vistas con el Minitel. El sistema se abandonó definitivamente hace solo un par de años. En España, TVE comenzó la emisión ininterrumpida del teletexto el 16 de mayo de 1988 (al parecer sin decodificador), aunque hubo un teletexto durante el Mundial de Fútbol de 1982.

16


2. Historia de Internet 2.1. Antes de la web ● En 1963, Larry Roberts concibió el sistema de transmisión de datos por “paquetes” que pueden recorrer diferentes “rutas” hasta llegar a su destino. Se escogió este método por razones de seguridad (bajo la influencia de la “Guerra Fría” de la época). ● En 1969 se realizó la primera conexión remota entre computadores. Luego se creó ARPANET (Advanced Research Projects Agency Network) en la red de ordenadores de la Agencia de Proyectos de Investigación Avanzada de Defensa (DARPA) de los EE.UU., que conectaba a cuatro universidades de Estados Unidos: Stanford, UCLA, Santa Bárbara y Utah. Vincent Cerf considera que esa es la fecha de nacimiento de Internet, cuando el potencial de las comunicaciones por conmutación de paquetes fue probada en dicha red. ● En 1972, Ray Tomlinson, de BBN Technologies, creó el primer programa de correo electrónico y utilizó por primera vez el símbolo @ en la dirección. ● En 1973 se inició la difusión del e-mail a nivel internacional (desde EE.UU. llegó a Noruega y Gran Bretaña). ● En 1976, Robert Metcalfe desarrolló Ethernet, sistema que permite una conexión rápida entre computadores por medio de un cable coaxial. ● En 1978 aparece el primer tablón de anuncios BBS (Bulletin Board System), en Chicago. Los BBS se basan en un computador personal con uno o dos módems por los que podían entrar los lectores (uno o dos, de acuerdo al número de módems), uno tras otro, por lo que debía hacerse cola para acceder. ● En 1979 se formaron los primeros grupos de discusión (newsgroups) y con ello nació la red Usenet. ● En 1981, por primera vez, los computadores de la Universidad de Yale y la Universidad de la Ciudad de Nueva York (EEUU) lograron un enlace

17


directo, dando inicio a la que más tarde sería la gran red académica mundial BITNET (Because It's Time NETwork). ● Se anunció entonces la aplicación del protocolo TCP/IP y se determinó que todos los hosts de ARPANET tendrían que migrar a TCP/IP. La fecha límite para la migración fue el 1 de enero de 1983 y por ese motivo se considera a veces dicha fecha como el inicio de la internet moderna. ● Se calculó entonces que se instalaba un servidor de internet (host) cada 20 días. El primer nombre de dominio .com se registró en 1985 y otros cinco dominios se agregaron ese año. Llegaron a los 10.000 en 1987. ● Theodor Nelson acuñó ese año el término “hipertexto”, en reemplazo del "memex" concebido por Vanevar Bush en 1945.

2.2. Nace la WWW ● En 1989, Tim Berners-Lee, en el CERN (Centro Europeo para la Investigación Nuclear), formula el lenguaje Html para la creación del hipertexto, como sistema de organización de documentos. Se puede ver el primer browser en el sitio de la W3org:

18


● En 1990, Arpanet se convirtió oficialmente en Internet. ● En 1991 nace la World Wide Web, con la creación de documentos en Html y el uso del protocolo Http para la comunicación de información de computador a computador, basado en el sistema "MIME" (Multipurpose Internet Mail Extensions) utilizado para el correo electrónico. ● En 1992 se fundó la Internet Society. ● En 1993, el CERN oficializó en un documento que la tecnología diseñada para la creación de la World Wide Web era a partir de entonces de dominio público. En aquella época, estaban disponibles otras metodologías, como WAIS y Gopher, pero la simplicidad de la web, concebida por Tim BernersLee, y sobre todo, la decisión del CERN de hacerla de dominio público, permitió su rápido desarrollo y su creciente popularidad. ● El 22 de abril de 1993 fue lanzado el primer navegador gráfico llamado «Mosaic» para que la comunidad universitaria pudiera consultar las páginas de internet capaces de exhibir texto e imágenes al mismo tiempo, dejando atrás el formato de mero textos (Gopher). Fue reemplazado en 1998 por el Netscape Navigator, que dió su nombre al proceso de consultas mediante enlaces en la web: la navegación. ● En 1993 también, Jonathan Fletcher, un graduado trabajando en el laboratorio de computación de la Universidad de Stirling, en Escocia, inventó el primer motor de búsqueda de la web del mundo, la misma tecnología que utilizan hoy en día los buscadores como Google, Bing y Yahoo. ● En 1994, la cantidad de hosts de Internet llegó a 3 millones. Ese año también tuvo lugar la primera conferencia internacional sobre la

19


● ● ●

World Wide Web (Pantallazo del sitio web, que muestra lo sencillo que era en esa época). En 1995, la Fundación Nacional de la Ciencia de EE.UU. decidió abandonar su auspicio y permitir la entrada de información comercial. La WWW perdió entonces rápidamente su carácter esencialmente académico. Nacieron Amazon, Yahoo, eBay y MSN. En 1997, para remediar los problemas surgidos con la avalancha de información comercial, la Casa Blanca anunció el proyecto “Next Generation Internet” (NGI) y diversas universidades norteamericanas convocaron a la creación de la “Internet 2”, un nuevo proyecto de red académica más potente y rápida que la actual Internet. En 1998 nace Google y los usuarios de la web llegan a 300 millones. En 1999, empezaron a funcionar los primeros “nodos” (servidores conectores) de la Internet 2. En el año 1999, la web, como toda la prensa, se hizo eco -en numerosas páginas- del problema que podría surgir a raíz del cambio de milenio, conocido como “Efecto 2000” o “Y2K bug”, un error que podía afectar a sistemas muy antiguos que codificaban el año en dos dígitos. En éstos, la llegada del año 2000 y su "00" podría interpretarse como el año 1900 y se podría desatar el caos absoluto. Finalmente, no pasó nada grave porque los programadores tomaron los resguardos necesarios. (En 2038 podría aparecer un problema parecido, debido a la forma en que los sistemas operativos de 32 bits conservan y calculan la fecha). Entre 1997 y 2001, las bolsas de valores de las naciones occidentales vieron un rápido aumento de su valor debido al avance de las empresas vinculadas al nuevo sector de internet y a la llamada “Nueva Economía”. Una combinación de un veloz aumento de precios de las acciones, la especulación individual y la gran disponibilidad de capital de riesgo crearon un ambiente exuberante y surgieron numerosas empresas. En este ambiente, la burbuja fue creciendo hasta los 5.048 puntos en Nasdaq, el índice de empresas tecnológicas de Wall Street. Al pasar el tiempo, muchas de éstas quebraron o dejaron de operar: 225 fracasaron financieramente en el 2000 y 537 cerraron sus puertas el año 2001, la mayoría de ellas empresas de infraestructura de negocios y en menor rango compañías orientadas al 20


consumidor (WallStreet Journal Interactivo, 27/12/2001). Un año después del desastre, el Nasdaq aún cotizaba por debajo de los 2.000 puntos, arrastrado por las caídas de las acciones de empresas más sólidas como Intel o Cisco Systems, que se vieron también afectadas por la crisis. Año y medio después del crack, el Nasdaq seguía en caída libre y había perdido el 78% de su valor. El mínimo lo marcó el 9 de octubre de 2002, cuando el índice se situó en 1.114 puntos. El mercado perdió en dos años cinco billones de dólares. Fue la llamada crisis de las empresas “punto com”. (El País.es, 10/03/2010)

2.3. La explosión comercial de la web El año 2000, fruto del rápido crecimiento de la WWW, se produjo la llamada “crisis de las empresas punto com” en que quebraron muchas empresas creadas para aprovechar la red. Crecimiento de internet (Usuarios por 100 habitantes)

Fuente: UIT

21


Como dice Miguel Pérez Subías, presidente de la Asociación de Usuarios de Internet, “al principio llegaron los problemas de conexión, luego empezó el auge del comercio electrónico, más tarde el de los blogs y el de la llamada Web 2.0 con la aparición de las redes sociales y la explosión de la movilidad casi a la vez.” (ABC.es, 21/05/2013) Se considera que la “Web 2.0” apareció con las redes sociales, principalmente Facebook, en 2005. La característica principal de este nuevo formato es su carácter dinámico, con la posibilidad de participación activa de todos los usuarios. El siguiente gráfico detalla la evolución correspondiente. Esquema del cambio de la web 1.0 a la web 2.0

Fuente: Richard Johnson (tomado de la tesis doctoral de Eva Herrero Curiel)

22


3. Dimensión y componentes 3.1. Dimensión En 1996 se calculó por primera vez el número de usuarios de internet: eran 40 millones. Hoy son más de 7.000 millones. En 2013, había 265 millones de nombres de dominio registrados (D.Wallace, 2014). En términos de sitios web (que conforman solo una parte de internet), internet ha superado los 975 millones de sitios, aunque sólo 183 millones de sitios web se consideran activos, según Netcraft (Diario TI, 13/05/2014). 3.1.1. Usuarios

Fuente: Team Family Guy, Infographic Journal, dic. 2013

La tasa de penetración de Internet, a finales de 2013, alcanzaba prácticamente el 80% en los países desarrollados y el 30% en los países en desarrollo, con un total

23


de 7.100 millones de usuarios2 (El País, 26/11/2013 y Team Family Guy, Infographic Journal, dic. 2013). Mientras en 1991 había unos 16 millones de suscriptores (números) de dispositivos inalámbricos en el mundo, en 2013 son casi 7.000 millones, para un planeta de 7.700 millones de habitantes (M.Castells, 2014). Al inicio de 2014, según Internet World Stat, Norteamérica y Europa Occidental tenían la más alta tasa de penetración de internet (81 y 78% respectivamenete), mientras Sudamérica alcanzaba 47% y América Central solo 34% (Social Media Today, 30/05/2014; ver gráfico siguiente). Asia concentraba el 48% del total mundial de usuarios. Le seguía Europa con el 21,6% y Norteamérica con el 11,4%. Un 10,6% correspondía a usuarios de América Latina, poco más de 255 millones. (TICbeat, 17/05/2014).

Fuente: Internet World Stat, CNNIC (via Social Media Today, 30/05/2014)

2

Existe una importante diferencia con las cifras que entregó la Internet Society en junio 2014 para mayo de este año: 2.893.587.260 usuarios a nivel mundial, cifra que corresponde sin duda a los equipos conectados a la hora del control (clientes físicos más que personas).

24


La situación de algunos países de América Latina era la siguiente a fines de 2013:

Datos de comScore (via FayerWayer), nov. 2013

Dos de los 20 países del mundo con mayor número de internautas son hispanohablantes: España y México. (TICbeat, 11/05/2014). En España, un 70% de los hogares tenía acceso a Internet al finalizar el 2013 (frente al 79% de la media de la Unión Europea), de los cuales un 69% tenían conexión a banda ancha, frente al 76% de media de la Unión Europea, según un informe de Eurostat, la oficina estadística de la Comisión Europea. Esta estadística revela además que un 54% de los españoles utilizaban internet a diario mientras un 24% afirmaba que nunca lo utiliza (El Mundo, 31/12/2013). El acceso desde redes móviles es una práctica que realizan el 45% de los españoles que se conectan a la red según el informe ‘eEspaña 2014’ de la Fundación Orange. Según datos del EGM, el número de usuarios españoles que se habían conectado `en algún momento´ durante los últimos treinta días se elevaba al 68,1% (PRinternet, 23/04/2014). Los porcentajes de conectados de cada país, en la tabla anexa, son de la Internet Society y corresponden a fines de 2012, según su reporte publicado en junio 2014.

25


Actualmente, siete de cada diez hogares españoles cuenta con conexión a la web, penetración de internet que subió un 50% desde el inicio de la crisis económica, según los datos del “Informe sobre los consumos y gastos de los hogares españoles en los servicios de comunicaciones electrónicas del segundo semestre de 2013”, elaborado por la CNMC. La tecnología de acceso a Internet más utilizada es el ADSL, en el 78,6% de los hogares, seguida del cable (17,7%), la banda ancha móvil (16,6%), y la banda estrecha (2,2%). (ABC.es, 23/06/2014). El smartphone es el dispositivo inalámbrico elegido por un 75% de estos usuarios para conectarse a Internet. En segundo lugar se encuentra el ordenador portátil (61,8%), que ha dejado atrás al de sobremesa con un uso inferior al 50%. Las conexiones a la red a través de tabletas llega a 24,2%, seguidas de la videoconsola (11,9%) y el televisor “inteligente” (3,6%) (PRinternet, 23/04/2014). El acceso móvil a internet superaría el acceso fijo en el curso de 2015 según la comunidad de marketing Dekh. El Foro Económico Mundial estudió el estado de desarrollo de las nuevas tecnologías en 148 países y señaló que una brecha digital mundial continúa separando a las economías desarrolladas de las emergentes, pese al crecimiento de las redes sociales y los smartphones. En Europa, los países del sur y el este del continente se mantienen por detrás de los demás. Países como Finlandia, Singapur, Suecia, Países Bajos, Noruega, Suiza y Estados Unidos continúan ocupando las primeras posiciones. Entre los países latinoamericanos, el que ocupa el lugar más alto del ranking es Chile (35), seguido de Panamá (43), Costa Rica (53), Barbados (55), Uruguay (56), Colombia (63), Brasil (69), México (79), Ecuador (82), Jamaica (86), Perú (90), República Dominicana (93), El Salvador (98), Argentina (100), Guatemala (101), Paraguay (102), Venezuela (106), Honduras (116), Bolivia (120), Nicaragua (124) y Haití (143). Brasil cayó 9 posiciones, y México 16 el último año. Y el Foro ha manifestado que alberga notables dudas sobre “la capacidad actual de los países en vías de desarrollo para aprovechar todo el potencial que las nuevas tecnologías pueden ofrecerles”. (TICbeat, 24/04/2014) La intercomunicación atraviesa poco las fronteras regionales. Según una investigación realizada en el Massachussetts Institute of Technology (MIT) acerca del comportamiento de los usuarios de internet en países como Gran Bretaña, Bélgica, Francia, e Italia, la gente “ha construido un set de comunidades conectadas y cohesionadas geográficamente”, que en Inglaterra no van más allá de 26


un radio de 100 millas a la redonda. El caso de Bélgica es más llamativo, ya que la “división cibernética” concuerda con las divisiones sociales entre el norte y el sur, que en buena parte tienen que ver con el idioma. Y por su parte, en Francia las comunidades virtuales se demarcan de este a oeste en base a las regiones administrativas de la nación. En otras palabras, los «bordes invisibles» están siempre presentes, incluso en internet donde dichos bordes pueden eliminarse más fácilmente. (FayerWayer, 21-12-2013). 3.1.2. Empresas

Las empresas que dominan la web son principalmente Facebook, Google, Yahoo, Twitter, Amazon y eBay. Facebook, Google, Yahoo y Microsoft son las que acumulaban las mayores rentas en 2013 según Business Insider. Google representa el 25 por ciento de todo el tráfico de Internet (PC World, 22/07/2013). Según las páginas web más visitadas, el mapamundi se estructura casi exclusivamente en torno a Google, Facebook, Baidu (el “Google” chino) y Yahoo!, según Alexa:

Fuente: Alexa.com, octubre 2013

Internet tiene aún muchas barreras que impiden el acceso en países en vías de desarrollo. Por ello, empresas como Google y Facebook tienen esperanzas de poder ofrecerlo utilizando comunicaciones aéreas. Así, Google desarrolló el Project Loon, el cual permitirá la conexión a internet mediante conexión WiFi con un 27


router colocado en un globo aerostático capaz de volar al doble de altitud que un avión, ajeno a las inclemencias meteorológicas. Se asociará con empresas de telecomunicaciones establecidas en cada país, porque necesitaba disponer en cada uno de segmentos de espectro radial para que operen sus globos (FayerWayer, 6/05/2014). A mediados de 2014, después de exitosas pruebas en los Estados Unidos y Nueva Zelanda, contaba ya con unos cien globos en el aire y se proponía cuadruplicar esta cifras, extendiendo el “vuelo” de cada uno de 70 a 100 días. También aumentó su capacidad de transmisión - de 22 MB por segundo a una antena en tierra y 5 MB por segundo a un teléfono - y agregó la conexión LTE, en lugar de WiFi. (Wired, 16/06/2014). Para 2015, confía en tener una flota de entre 300 y 400 globos surcando los cielos del planeta. Además, compró en EE.UU. al fabricante de aviones no tripulados de gran altitud Titan Aerospace, el cual está construyendo dos tipos de aviones no tripulados de energía solar que pueden volar durante años y espera iniciar operaciones comerciales en 2015. La autonomía y su capacidad para realizar fotografías aéreas puede que sean los motivos principales para la compra. También invertirá más de 1.000 millones de dólares en lanzar satélites para difundir internet en regiones de la Tierra con poco acceso a este servicio. (IBLnews, 2/06/2014). Por su parte, Facebook anunció a principios de 2014 que había comprado el fabricante de drones británico Ascenta. Así, las dos empresas compiten por la utilización de tecnología de vanguardia, como aviones no tripulados y globos de gran altitud, para suministrar internet a la mayoría de la población mundial. Con ello, en los próximos años, mil millones de personas más tendrían acceso a Internet. (BBC y Geekpro, 14/04/2014) Volveremos más adelante sobre estas empresas al abordar los temas de las redes sociales y del comercio electrónico. 3.1.3. Contenido

En junio 2012, el 50% del tráfico llegó a ser de transmisión de vídeo según la Internet Society. En 2013, los datos de internet, en su mayoría aportados por los usuarios, representaron 1.000 exabytes (un exabyte es igual a un trillón de bytes). Todos los días se crean 2,5 trillones de bytes de datos. El 90% de los datos existentes en el mundo de hoy se ha creado en los últimos dos años.

28


A cada minuto se genera en el mundo datos por el equivalente a 360.000 DVD. Cada minuto se envían 100.000 tuits a nivel mundial. Google recibe dos millones de peticiones de búsqueda por minuto. (BBC). En la página siguiente mostramos la cantidad de datos subidos a la web en un solo minuto el día 28 de mayo de 2014 (Fuente: Penny Stocks Lab). Como consecuencia de ello, el sector de datos crece un 40% al año, siete veces más rápido que el mercado global de la información y de las comunicaciones. En 10 años, la información creada y compartida se ha multiplicado por 9 (IDC):

El banco canadiense CIBC predice que la generación de información crecerá 50 veces a lo largo de la próxima década. IDC prevé de manera similar un aumento de 44 veces en el volúmen de los datos entre 2009 y 2020. (Business Insider, 12/05/2014).

29


30


3.1.4. Tráfico

A través de Internet, en sólo un minuto más de 639.800 Gigabytes de datos globales eran transferidos entre computadoras a principio de 2013 (Transmedia, 7/03/2013). Mientras el e-mail es el que menos tráfico genera, el vídeo es que más megabytes consume, como lo muestra el gráfico comparativo que confeccionó la Internet Society:

El reporte de Akamai de julio 2013 sobre el acceso y el uso de internet a nivel global indicó que por primera vez se sobrepasó la barrera de los 3 Mbps en promedio, un avance de un 17% comparado al año pasado. Como ya es costumbre, Corea del Sur es el país cuyo promedio de acceso es el más rápido del mundo, seguido de Japón. El peak de velocidad corresponde a Hong Kong: durante el pasado trimestre se registró un máximo de 63,8 Mbps. El único país americano dentro de los primeros diez es Estados Unidos, cuya velocidad promedio alcanza los 8,6 Mbps (FayerWayer, 23/07/2013). Chile pasó de los 2,8 Mbps en 2013 a los 3,3 Mbps en promedio en 2014. Con ello se posicionó a la par con Ecuador y solamente bajo Uruguay, que alcanza los 4,3 Mbps, y México, con sus 3,3 Mbps según el reporte de Akamai para el primer cuarto de 2014. Según el último estudio de Sandvine sobre la evolución del tráfico global en la Red, correspondiente a la primera mitad de 2014, BitTorrent continúa acaparando el uso de los canales de subida de la banda ancha fija, tanto en Europa (33,2%) como en Estados Unidos (24,53%). En los canales de bajada, en el Viejo Continente YouTube es el servicio que más consume (19%), seguido por la web 31


HTTP (17%), mientras en Estados Unidos el rey es Netflix, con 34% (Xataka, 15/05/2014). Alrededor del 36% de todo el tráfico web se considera falso, producto de ordenadores secuestrados por virus y programados para visitar los sitios, según estimaciones del grupo comercial Interactive Advertising Bureau. (The Wall Street Journal, 23/03/2014). Se dedica cada vez más tiempo a las pantallas y el otrora exclusivo y luego dominante televisor está siendo desplazado por el smartphone y otros medios con procesadores, como muestran los datos elaborados por Mary Meeker para su presentación anual de tendencias de Internet. Indonesia, Filipinas y China son tres de los países donde la gente vive más pegada a una pantalla. Brasil, Colombia y Argentina están también en la zona alta de la tabla, mientras España está algo más abajo, seguida de México.

Fuente: KPCB, 28/05/2014

32


En el tráfico móvil, los sistemas de Google (Android) y Apple (iOS) se disputan las preferencias. Aquí una comparación del tráfico de ambos en Iberoamérica y los Estados Unidos según la firma dotMobi:

Fuente: The Next Web, 25/03/2014

Globalmente, Apple no hace más que perder terreno en el terreno de la industria móvil. Si en 2007, llevó a toda la industria de la telefonía a cambiar radicalmente al introducir el sistema iOS y el iPhone, perdió lentamente su liderazgo con el avance de Android. La versión Ice Cream Sandwich (Android 4.0) constituyó el punto de inflexión, gracias a su rediseño y sus novedades, y a mediados de 2012, con el Android 4.1 Jelly Bean, Google dio el paso que le permitiría adelantar luego

33


a Apple en el mercado de los smartphones. Apple requeriría importantes innovaciones para contrarrestar dicho avance. (Alt1040, 6/04/2014).

3.2. World Wide Web 3.2.1. Web 1.0, 2.0 ¿ y 3.0 ?

Aunque Tim Berners-Lee inventó la web en 1989, tuvo que pasar más de un año hasta que en mayo de 1990 se le ocurrió el nombre genial con el que hoy la conocemos: World Wide Web. Y fue sólo en 1991 que se creó el primer software que permitió una conexión entre varios computadores. Por años la web fue un privilegio de las universidades, de los académicos y de sus alumnos. hasta que, en 1995, la Fundación Nacional de la Ciencia de EE.UU. abandonó su auspicio y permitió la entrada de información comercial. A nadie se le ocurrió, en ese momento, hablar del paso de una “Web 1.0” a una “Web 1.1”, que podría también haber sido ya “Web 2.0”. Aunque se habla mucho de “Web 2.0” en relación a las redes sociales, el hecho es que el concepto específico utilizado para justificar el apelativo “Web 2.0” es el de participación “full on-line”, o sea de que todo lo que se desea hacer, especialmente orientándose a la interacción, se puede hacer a través de la WWW. Así, las bases de la web 2.0 son las interfaces que permiten mayor intervención -creativa- de los usuarios, gracias a la oferta de aplicaciones en línea, registro de informaciones y medios de conservación (“discos duros virtuales” o “nube”) cualquiera sea el sistema operativo del usuario. Ejemplos de aplicaciones web 2.0 son las que ofrece Google: Gmail, Google Calendar, Google Docs y Google Drive, Picasa y Blogger. En el campo de las redes sociales, se ha de agregar Facebook, LinkedIn, Twitter, MySpace y otros. Y los recursos de comunicación directa como WathsApp, Line, Viber, etc. Se preguntó a Tim Berners-Lee si la “Web 1.0” era conectar computadores y la “Web 2.0” conectar gente, contestó “De ningún modo. La Web 1.0 trataba de conectar gente. Era un espacio interactivo, y pienso que la Web 2.0 es una especie

34


de jerga; nadie sabe lo que significa. Si la Web 2.0 es para ud. blogs y wikis, ésto es de gente a gente. Pero ésto es lo que se suponía que hiciera la Web todo el tiempo. Y de hecho, sabe, esta Web 2.0 significa usar los estándares que fueron producidos por toda esa gente trabajando en la Web 1.0.” (en N.Anderson) El experto Lance Ulanoff también opina que la Web 2.0 no existe. Como explica, el nombre “Web 2.0” implica una revolución, un cambio radical en lo que es la web. Pero no ha ocurrido ninguna revolución, sólo una evolución, incluso parcial. La televisión ha pasado del blanco/negro al color. Y ahora a la alta definición. Pero no es Televisión 2.0 y TV 3.0. Es una evolución natural. El software requiere números porque los cambios son sustantivos. Pero la web no es un software. Es un medio de comunicación que evoluciona como otros. (PC Magazine, 12-03-2009). A pesar de estas observaciones, desde el 10 de Junio del 2009, la palabra “Web 2.0” se coronó oficialmente como el término número un millón del idioma inglés. El diccionario inglés definió entonces a “Web 2.0” como “La próxima generación de productos y servicios Web, pronta a llegar al navegador de Internet” (un definición con muy pocos visos de estabilidad). The Global Language Monitor (GLM) es la entidad responsable de aprobar las palabras nuevas que entran en el idioma inglés. Para ellos, basta que una palabra tenga “un mínimo de 25.000 citas con una amplitud geográfica y profundidad cultural importante” para poder ser reconocida oficialmente. (FayerWayer, 11/06/2009). Como agregó el mismo Berners-Lee en su discurso para celebrar el 20º aniversario de su invento: “La web de hoy es sólo la punta del iceberg. Llegarán nuevas tecnologías mucho más poderosas que nos permitirán hacer cosas que jamás hubiéramos imaginado. Lo mejor está por llegar.” (El Mundo, 13/03/2009) Uno de los caminos que Berners-Lee considera fundamental seguir para que la Web continúe desarrollándose de manera útil es derribando las barreras actuales entre grandes bases de datos (como Wikipedia, Google, etc.) para vincular toda la información relacionada en la web, de tal manera que sea mucho más fácil acceder a los datos que busca cada internauta. Éste es el camino llamado “web semántica”. “La Telaraña o Web Semántica se presenta como la nueva revolución de Internet. La promesa es convertir información en conocimiento. La visión que hay detrás de 35


la idea de la Telaraña Semántica es la de que los datos que hay en la red estén definidos de tal forma que puedan ser utilizados y comprendidos por las máquinas sin necesidad de intervención humana. La web se convertirá en un espacio autonavegable y auto-comprensible. Pero la cosa aún va más allá, de lo que se trata es de convertir la información en conocimiento codificando los datos con metadatos, datos sobre los datos legibles de forma automática.” (Dürsteler, 2001). Así, la Web Semántica se basa en dos conceptos fundamentales: la descripción del significado que tienen los contenidos en la Web y la manipulación automática de estos significados, hasta poder realizar inferencias (deducciones). El primer paso para ello será conseguir un intercambio de datos a nivel global, de forma que las aplicaciones web también puedan “aprender” a través de los datos de otras aplicaciones. Una vez introducidos los mecanismos adecuados, es evidente que la Web tendría un nuevo aspecto y una funcionalidad muy superior para manejar y ampliar el conocimiento. ¿Se hablará entonces de “Web 3.0”? Ya existen navegadores “inteligentes” (pero de pago), como Amblit, que utilizan la web semántica para enlazar información. Pero no se ha llegado aún a un estándar que asegure que todas las aplicaciones o transmisiones en la WWW se entiendan del mismo modo a ese nivel. También existe otro problema: ¿qué hacer con todo lo que ya está publicado? La cantidad de información es tan enorme que parece improbable que se revise para incluir los metadatos requeridos. Y, consecuentemente, estaría perdida para siempre. A menos que se pueda también automatizar dicha revisión, lo cual plantea otro tipo de problema (y de costos). Pero si se ha de hablar de Web 3.0, se ha de tomar en cuenta otro factor: pasa por la creación de una identidad única individual para acceder a todas la redes sociales. Actualmente, si un usuario postea un mensaje de texto en una red, sea Twitter, Facebook, Tuenti u otra, sus amigos deben estar registrados en la misma red para estar al tanto de sus actualizaciones. Para avanzar, se necesita una identidad única online como lo pretende lograr OpenID. Se podría entonces avanzar hacia una “web 4.0”, una web inteligente que ofrezca una interacción con el usuario más completa y siempre personalizada en forma automática, basada en los datos personales compartidos.

36


3.2.2. El ámbito de la web

No debemos confundir internet con la “web”, incluso considerando que algunas funciones de internet pueden realizarse sin utilizar el protocolo HTTP que define ésta, como la transferencia de archivos hacia un servidor (FTP) y los archivos o aplicaciones “en la nube”. Y la web, incluso, es más que lo que aparece en los navegadores, porque existen aplicaciones que utilizan el protocolo HTTP sin recurrir a un navegador web, como muchas apps móviles. Ocurre, entre otros, con YouTube y Twitter: en el escritorio, están en el navegador; en el móvil, están en apps. “Es posible que la palabra "web" esté demasiado estrechamente asociada con el contenido HTML / CSS / JavaScript dictada en los navegadores web”, dice J. Gruber. “La web ha sido siempre un concepto nebuloso, pero en su centro se encuentra la idea de que todo se puede vincular.” (J. Gruber). De los otros componentes de internet hablaremos más adelante. Según Netcraft, internet ha superado los 975 millones de sitios web y la Internet Society confirmó el registro de 1.000 millones de servidores a septiembre 2013, aunque sólo 183 millones de sitios web se consideran activos (Diario TI, 13/05/2014). El 22% de los sitios de internet son gestionados por WordPress (FayerWayer, 16/04/2014). Si bien la web parece tener una cantidad infinita de sitios e información, científicos han logrado calcular que el “Efecto Kevin Bacon”, el cual señala que existen seis grados de separación entre cualquier persona en la Tierra, también se aplica a Internet, lo que se traduce en que cualquier sitio web está conectado a otro en menos de 19 clics. Para lograr llegar a los 19 clics, el equipo de investigadores construyó algoritmos que recolectaran todos los enlaces en un sitio web y luego los siguieran a sus destinos, repitiendo el proceso una y otra vez. La clave para la rápida expansión de la web con un bajo número Kevin Bacon es el surgimiento de sitios núcleo como Facebook y Google, pues esas redes están muy conectadas. “El lado malo de esto es que en el evento de un ataque en donde aquellos nodos son los primero atacados, la red sería destruida muy rapidamente. Es el talón de Aquiles de Internet.” (La Tercera, 19/02/2013)

37


Con casi 500 millones de hablantes, el español es, tras el chino, la segunda lengua del mundo por número de usuarios, a bastante distancia del árabe, ruso, italiano, francés o alemán. Ocupa el tercer puesto en la web y el segundo en Twitter y Facebook (TICbeat, 11/05/2014). Lo confirmó el informe “El español: una lengua viva” del Instituto Cervantes actualizado con datos del 2014, que también precisó que solo el 7,8 % de todos los usuarios se comunican en español y que el uso del español en la red ha experimentado un crecimiento del 807,4% entre los años 2000 y 2011. (Clases de Periodismo, 23/06/2014). En el planeta existen 7.776 lenguajes actualmente en uso. Menos del 5% de ellos están disponibles en la WWW, según un estudio realizado por el lingüista András Kornai, lo que podría significar la rápida extinción de ese 95%. Para elaborar el estudio «Digital Language Death», Kornai usó un programa para rastrear dominios de internet y catalogar el número de palabras en cada idioma. También analizó páginas de Wikipedia, y las opciones de idioma de los sistemas operativos y sistemas para revisar la ortografía. (FayerWayer, 5-12-2013) La investigación realizada en el Massachussetts Institute of Technology (MIT) observó el comportamiento de los usuarios en países como Gran Bretaña, Bélgica, Francia, e Italia. Y las conclusiones son evidentes: la gente “ha construído un set de comunidades conectadas y cohesionadas geográficamente”, y que en Inglaterra no van más allá de un radio de 100 millas a la redonda. El caso de Bélgica es más llamativo, ya que la “división cibernética” concuerda con las divisiones sociales entre el norte y el sur, que en buena parte tienen que ver con el idioma. Y por su parte, en Francia las comunidades virtuales se demarcan de este a oeste en base a las regiones administrativas de la nación. En otras palabras, los “bordes invisibles” están siempre presentes, incluso en internet donde dichos bordes pueden eliminarse más fácilmente. (FayerWayer, 21-12-2013)

3.3. La “Internet profunda” (“Deep Web”) Según un estudio de la Universidad de California, la web profunda contiene 500 veces más información que la internet a la que todos accedemoscon nuestros navegadores. (BBC Mundo, 19/06/2014). 38


3.3.1. La “nube”

Hace ocho años, Amazon Web Services fue la primera empresa en instalar el concepto del alquiler de capacidad de computación, que libra a los clientes de los costos de construir su propia infraestructura informática, principalmente útil para pequeñas empresas. Microsoft y Google han reforzado su oferta de servicios similares, y con ello han desatado una guerra de precios a tres bandas. La firma de investigación Gartner Inc. estima que las empresas gastarán alrededor de US$ 13.300 millones este año en alquiler de capacidad de computación de Amazon y otros proveedores, 45% más que hace un año. (El Mercurio, 16/04/2014). Fuera de la oferta del poder de cómputo, han aparecido las ofertas de almacenamiento de datos en “depósitos” a los que los usuarios de internet pueden acceder sea a través de la web sea mediante aplicaciones para móviles (apps). Con los servicios antes descritos, constituyen la “nube” (cloud). El mercado de servicios “en la nube” debía llegar a 131.000 millones de dólares a fines de 2013 (ClickSoftware/Nowsourcing, julio 2013). Además de las grandes empresas de internet que ofrecen tales depósitos (como Google Drive, Skydrive de Microsoft e iCloud de Apple), existen empresas que se especializan en depósitos personales, como Dropbox y Sugarsync. Dropbox alcanzó los 300 millones de usuarios (FayerWayer, 30/05/2014). Además, existen depósitos especializados para fotografías, como Flickr, de Yahoo, y Picasa, de Google. Empresas de redes sociales también ofrecen sus propios depósitos orientados a compartir fotografías, como Instagram (ahora propiedad de Facebook, que tiene también el depósito fotográfico de sus clientes sociales), o Pinterest, que se especializa en fotos compartidas. Instagram tiene ya 200 millones de

39


usuarios activos cada mes y cuenta con 2000 millones de fotos. (Noticiasdot.com, sept.2013 y On.com, nov. 2013).

Adaptado de Backblaze, junio 2013

40


Prueba de que el mero almacenamiento ya no es suficiente, Dropbox compró múltiples empresas de servicios en la red, como MailBox, y de procesamiento digital, como Hackpad, para ampliar su oferta de servicios. Pero no dispone de “nube propia” (se nutre de Amazon S3 y otros), lo cual puede ser un handicap. (ABC.es, 22/04/2014). La nube ha cambiado por completo la forma en que todo es accesible en nuestras “vidas digitales”. Podemos gestionar nuestros archivos, datos, aplicaciones y seguridad en la nube. Ya sea que estemos hablando de una nube privada o empresarial, del uso de Office 365, Google Drive o Dropbox, la nube ha hecho que podemos acceder a ellos desde cualquier tipo de aparato y nunca estar sin nuestros contenidos. Esto también invade nuestros activos digitales más tradicionales, como nuestra música, películas y fotos. ¿Quién sigue comprando CD de música hoy? “Aparte de los coleccionistas y los acaparadores, la mayoría de nosotros diría que no hemos comprado un CD en el año, pero nuestra música sigue con nosotros cada día” dice Daniel Newman, de BroadSuite Consulting (Social Media Today, 21/05/2014). El auge del modelo de computación “en la nube” impacta en muchos aspectos de la industria de TIC y trae múltiples ventajas también al suministro y uso del software: el arriendo de aplicaciones en la nube es más flexible, más económico (respecto a las elevadas licencias tradicionales de las aplicaciones propietarias) y menos expuesto a la piratería (la seguridad quedando a cargo del proveedor y evitándose la multiplicación de software ilegal). Pero el empleo de las soluciones de software como servicio aún es muy limitado: solo representa el 9,3% del mercado total según la Business Software Alliance. Aún así, el uso de servicios cloud se extiende al 82% en el caso de las organizaciones europeas y estadounidenses, pero en el resto del mundo es apenas del 18%. (TICbeat, 25/06/2014). 3.3.2. Las redes privadas

Como hemos visto, Internet no se limita a la World Wide Web. Existe así una importante porción de Internet que no es accesible por web y es lo que se ha llamado la “Internet profunda”. Incluye foros, comunidades, redes privadas y otros sistemas de comunicación basados en el protocolo TCP/IP a los cuales solo se 41


accede con aplicaciones de uso restringido o bien mediante un buscador especializado que permite comunicaciones anónimas como TOR, «The Onion Router», que nació en el Laboratorio de Investigación Naval de EEUU como una forma de crear comunicaciones seguras para los militares. TOR está estructurado en nodos o capas (su símbolo es una cebolla roja), de forma que el usuario va saltando de una a otra, amparado por una capa de cifrado que impide que el servidor de destino conozca su IP. El gráfico siguiente representa el uso de Tor en el mundo. Los distintos colores se refieren al promedio diario de usuarios del sistema Tor por cada 100.000 usuarios de Internet; el tamaño de los hexágonos al número de usuarios que pulsan el botón de Tor cada día.

Italia, con más de 76.000 usuarios cada día - casi una quinta parte del total de usuarios de Tor en Europa -, es el país europeo donde más se utiliza Tor, y el segundo del mundo, detrás de EEUU. En Europa lo utilizan cada día 80 de cada 100.000 usuarios de Internet. (Microsiervos, 24/06/2014). El uso de TOR, sin embargo, no es una garantía absoluta de privacidad: un informe de los medios alemanes ARD y WDR, elaborado a partir del análisis del código fuente de XKeyscore, una de las herramientas de la Agencia Nacional de Seguridad

42


norteamericana (NSA), mostró que contenía los IP de varios “nodos autoridad”, que son los que listan quiénes forman parte de la red. (Genbeta, 3/07/2014). El grupo de expertos que conforma la organización Internet Engineering Task Force (IETF) ha lanzado una propuesta muy interesante: convertir la tecnología de la red Tor en un estándar de Internet. De prosperar la propuesta, la Red de redes podría entrar en otra etapa de su historia, donde la privacidad del usuario sería la propia esencia de Internet. Stephen Farrel, especialista en computación del Trinity College, Dublín, cree que convertir Tor en un estándar que interactúe con otras partes de Internet, puede ser mejor que dejar Tor como una herramienta independiente, cuya implementación requiere un esfuerzo para cada usuario. Andrew Lewman, director ejecutivo de Tor, ha manifestado que están considerando la propuesta, estando en una primera etapa en la que lo único que se plantean es si asistir o no a una reunión con Engineering Task Force. (Genbeta, 3011-2013) También existen las redes privadas virtuales (VPN) y la formación transitoria de una red que une dos equipos (P2P o “peer-to-peer”). Según Tru Optik más de 300 millones de personas utilizaron redes P2P en marzo de 2014, cifras solo superadas por Facebook y YouTube. Estados Unidos es el país que más utiliza las redes P2P (31,7 millones de IPs únicas en marzo) para la descarga de películas, series y música. Brasil es el único país iberoamericano que aparece entre los cinco mayores usuarios. (Genbeta, 5/06/2014). El siguiente gráfico (de Tru Optic, vía Genbeta) señala las descargas preferidas en diversos países.

43


Desgraciadamente estas formas de comunicación también se prestan para actividades delictivas, las que se agrupan en la llamada “dark net”, la parte más oscura de internet. 3.3.3. “Dark Net”

Venta de drogas o armas y asesinos que se ofrecen para ser contratados son algunos de los temas estrella de la “deep web” que también, según el comandante Óscar de la Cruz, jefe del Grupo de Delitos Telemáticos de la Guardia Civil española, “se ha convertido, por desgracia, en un nicho de distribución de pornografía infantil”. La Agencia Nacional contra el Crimen, del Reino Unido, advertió que cada vez más pederastas recurren a sitios anónimos y tecnologías de encriptación de datos. Uno de los sitios investigados por la BBC recibía, según su fundador, 500 visitas por segundo. Fuerzas policiales de varios países cooperan en un grupo llamado The Virtual Global Taskforce (Grupo de Acción Virtual Global) para combatir en forma conjunta la explotación de menores en internet. La empresa de software Redjack también está colaborando con el grupo de defensa de los derechos humanos International Justice Mission para luchar contra el abuso de menores. En 2013, el Centro Nacional para Niños Desaparecidos y Explotados de Estados Unidos (US National Center for Missing and Exploited Children), encontró más de 23 millones de imágenes obscenas de niños en internet y a mediados de 2014 había detectado 112 millones de carpetas que contenían imágenes de abuso sexual de menores. (BBC Mundo, 19/06/2014). Además de pornografía infantil, la “deep web” aloja un supermercado de corrupción, drogas y armas, que se venden como si se tratara de una tienda de zapatillas. Los delincuentes no cejan en sus intentos por evadir la ley y la “dark net” es solo uno de los lugares donde el anonimato saca lo peor del ser humano. (Citas de ABC.es, 6/04/2014). La Dark Net no debe confundirse con otro contenido de la red, también de acceso restringido: los “dark data”, que son acumulaciones de datos de acceso restringido.

44


3.3.4. “Big data”

Las empresas de internet - como muchas otras - acumulan una cantidad enorme de informaciones, superior a lo que es posible humanamente conocer y manejar. De ahí el nombre de “data oscura”, por semejanza con la materia oscura que conforma la mayor parte del universo (M.Gibbs, 2014). En el caso de las empresas de comercio, de servicios y -especialmente- de redes sociales, estas informaciones se acumulan en los llamados “big data”. En 1969, Playboy publicó una entrevista con Marshall McLuhan en los que el teórico de los medios predecía que la capacidad de las computadoras para analizar datos y comunicar mensajes podría llevar a “programar las sociedades de maneras beneficiosas”. Si las palabras de McLuhan pueden haber sonado descabelladas en esa época, parecen ahora más bien proféticas, dice N.Carr (Carr, 2014). Facebook, Google y otros realizan un seguimiento permanente de sus seguidores y acumulan estas informaciones. Incluso los medios de prensa pueden conocer los intereses de sus lectores. Son cantidades ingentes de datos, que conforman conjuntos gigantescos llamados por ello “big data”. Desde que se crearon las páginas web existe la posibilidad de recoger datos acerca de los sitios en que navegamos, las noticias que leemos en ellos, qué compramos por ellas, qué música escuchamos, qué películas vemos, etc. Con los móviles y las redes sociales, las empresas conocen nuestras listas de amigos, nuestros gustos, donde hemos estado, y más. Y, analizando o vendiendo estos datos, pueden obtener mayores beneficios gracias a la información que inocentemente les entregamos. De hecho, Facebook anunció en abril 2014 que lanzará su propia red de publicidad para móviles, en la que aprovechará su extensa base de datos sobre navegación de sus usuarios para crear anuncios personalizados, con el fin de competir con AdMob, de Google. Facebook determinará, en función de los movimientos y características en la navegación de los usuarios, qué anuncios encajan mejor en determinadas plataformas, como sitios web o aplicaciones para móviles. (Noticiasdot.com, 22/04/2014). Google compró Rangespan, una empresa, con sede en Londres, que desarrolló una tecnología capaz de ayudar a los minoristas a identificar los productos y servicios que tendrán más demanda en el futuro, algo que hacen analizando millones de datos de diversas fuentes para 45


indicar tendencias y, gracias al análisis estadístico, ayudar a ofrecer lo que la gente quiere (Wwwhat's New, 2/05/2014). Greg DeMichillie, director de gestión de productos de Google en la “nube”, anunció que, en 2015, la empresa se centrará en el lanzamiento de herramientas y servicios que facilitarán las operaciones con grandes datos. Será “Google Cloud Dataflow”, un servicio gestionado de procesamiento de datos, diseñado para crear canales de datos que “ingieran, transformen y analicen los datos, tanto en lotes como en flujos transmitidos”. (ComputerWorld, 26/06/2014). Ubisoft creó una aplicación que permite medir la “sombra digital” que se deja en Facebook. Revisa los perfiles de los mensajes, amigos, familiares, fotos, etc, en un esfuerzo para medir el valor de esta sombra para un publicista o un pirata que quisiera hacerse con la cuenta. Aquí un ejemplo del análisis, según una prueba dada a conocer por Forbes (25/04/2014).

Aparte de los beneficios que las empresas de redes sociales pueden obtener vendiendo estos datos a los publicistas, los primeros beneficiados parecen ser los sistemas de televisión a la carta en línea (streaming). Para ellos, este análisis resulta importante para definir la programación. Ha hecho, por ejemplo, que la oferta de series completas haya sido la preferida por empresas como Netflix y en 46


gran parte la razón de su éxito. “(En Netflix) sabemos lo que la gente está viendo, lo que vieron antes, lo que vieron después, cuánto ven del programa, cuán a menudo ven un capítulo después de otro, o si abandonan el episodio después de cinco minutos”, cuentan. “Contamos con un equipo de planificación y análisis de contenido que hace mucho trabajo a la hora de analizar los números para prevenir la audiencia de una determinada serie... Y en base a ello cuánto deberíamos hacer pagar por ella”. Pero los expertos del sector reconocen que el análisis de datos no es lo único que cuenta para tener éxito: saber seleccionar un buen contenido es también vital. (BBC, 21/04/2014) El desarrollo de algoritmos de análisis de la navegación permite conocer cada vez mejor lo que ocurre en la sociedad. Alex “Sandy” Pentland, un científico de los datos, afirma que la capacidad de recoger estos datos sobre nuestro comportamiento permitirá a los científicos desarrollar “una teoría causal de la estructura social” y, finalmente, establecer “una explicación matemática de por qué la sociedad reacciona como lo hace” en todo tipo de circunstancias...e incluso predecir comportamientos (Carr, 2014)3. En 2020, según una investigación de Cisco, habrá cerca de 50 millones de dispositivos (gadgets) conectados a Internet, o 6,58 por persona (ver apartado 3.3.7 sobre la Internet de las Cosas). En principio, todos estos dispositivos pueden recopilar datos sobre los individuos e informar a las bases de datos centralizadas (cada vez más enormes). Si se suman estos datos a los demás, las empresas que los obtengan podrán conocer aún mejor los hábitos y preferencias de los consumidores. Predecir e inducir comportamientos, sin duda, es de especial interés para los publicistas y expertos en mercadeo (y, quizás más peligrosamente, para algunos gobiernos). Y las redes sociales, en lo posible, tratarán de satisfacerlos, por evidentes razones económicas. Por ello, Facebook, Twitter, LinkedIn y otros están comenzando a utilizar técnicas de inteligencia artificial para desarrollar su capacidad de aprendizaje “profundo” a 3

Pentland escrió un libro sobre el tema titulado “Social Physics: How Good Ideas Spread – The Lessons from a

New Science”, Penguin Press, 2014.

47


partir de los datos que acumulan a través de sus redes, desde las conversaciones hasta el reconocimiento facial de las fotos y la actividad en los juegos. Así, tienen el potencial de ser mucho más personalizados. Y hacen emerger nuevos campos de marketing: la agrupación de audiencia (clustering), el marketing predictivo y el análisis de los sentimientos frente a las marcas. Facebook dispone para ello de un laboratorio de investigación dedicado a la inteligencia artificial (IA); Google adquirió DeepMind, una compañía que agrupa los mejores talentos en IA y crea algoritmos de análisis para el e-comercio; LinkedIn compró Bright, una compañía parecida, que desarrolla algoritmos de selección de trabajos; Pinterest adquirió VisualGraph, que reconoce imágenes. (C.Smith, 2014). Y Facebook adquirió además otras compañías que le permitirán participar activamente en el mercado de la “internet de las cosas”, como Moves, una app de teléfono inteligente para rastrear la actividad deportiva (Wired, 24/04/2014). Otros expertos piensan, sin embargo, que esta “física social” basada en las grandes bases de datos no es el enfoque más adecuado. En la agencia Havas, por ejemplo, en lugar de centrarse en el análisis de los big data, están pensando en cómo utilizar los datos obtenidos para ayudar a conectar mejor a las empresas y marcas con la gente. “Sabemos que las marcas que no están completamente conectadas con los consumidores no van a sobrevivir en nuestro mundo hiper-conectado y no serán capaces de construir un crecimiento orgánico4 sostenible. Tampoco van a ser capaces de aprovechar todas las señales e instrucciones que se les dan las personas con las que quieren comunicarse”, dice Dominique Delport, director general mundial de Havas Media Group. “La desconfianza y los escándalos de vigilancia dominan la industria, ya que su negocio se convirtió puramente acerca de los números y no acerca de las personas que los generan”, agrega. (Delport, 2014). Se trata de “comenzar con la gente, no con los datos”. A su juicio, la tienda Amazon es un ejemplo de este otro enfoque, donde los usuarios sí obtienen algo a cambio de sus datos personales. Son “big data” también los datos que se obtienen de los análisis genéticos, especialmente cuando se acumulan de la forma que propone hacer Google Genomics. Genomics es un proyecto que ofrece crear bases de datos con genomas de personas y permitir el acceso a estos datos por parte de la comunidad científica. 4

“Orgánico” en la web significa que no es de pago.

48


Permitiría: • Almacenar información de genomas. • Procesar los datos en lotes mediante la ejecución de un análisis de componentes principales. • Explorar los datos a través de una o varias muestras. • Compartir los datos genómicos con otro grupo de investigación, hacerlos públicos o distribuirlos entre una comunidad limitada. De momento están concentrados en el proyecto Autism Speaks, que dedica más de 500 millones de dólares a estudiar el problema del autismo, aunque las posibilidades en un futuro podrían ser enormes, acabándose el envío de discos duros por correo tradicional. (Wwwhatsnew, 2014/06/16) . ¡El riesgo de mal uso no debería ser obviado! El análisis de big data también se está volviendo cada vez más importante en la lucha contra el crimen. Este método le permite a la policía conocer mejor los focos de conflicto y personas problemáticas en un vecindario, un conjunto residencial o una calle. Detectar en forma preventiva gente que esté circulando en torno a “familias problemáticas” puede ayudar a evitar problemas futuros. La naturaleza inherentemente multinacional del abuso sexual de menores, también está siendo enfrentado con la ayuda de herramientas analíticas que involucran vastos cúmulos de datos, que crecen constantemente. Llegan a ser gigabytes y algunas veces terabytes de información cuando arrestan a un pedófilo o allanan un lugar que presta un servicio que comercia imágenes de niños abusados sexualmente. Sin el análisis de big data los agentes podrían demorarse meses y, sin la conexión internacional, repetir inútilmente el trabajo de otras fuerzas policiales. (BBC,20/04/2014) Ante esta realidad, no deja de llamar la atención el atraso de la industria aeronáutica, hecha patente con la desaparición del vuelo MH370 de Malaysia Airlines en marzo 2014. “En un mundo en el que se registra cada movimiento, es imposible creer que un avión pueda desaparecer sin dejar rastro y que la caja negra no se encuentre. Las mismas dudas surgieron con el vuelo 447 de Air France hace un par de años. Aunque se han producido algunos avances en este sentido, está claro que debemos acelerar nuestros esfuerzos. No podemos esperar a que

49


desaparezca otro avión”, dijo Tony Tyler, director general y CEO de la Asociación de Transporte Aéreo Internacional, IATA. (El Mercurio, 12/04/2014.) La cantidad de aplicaciones y usos posibles no ha dejado indiferente la Comisión Europea. Ha pedido a los gobiernos nacionales que “abran los ojos ante la revolución del Big Data” y ha propuesto: • Crear una asociación público-privada de macrodatos que financie ideas «revolucionarias» de macrodatos en áreas como la medicina personalizada y la logística alimentaria. • Crear una incubadora de datos abiertos (dentro del Programa Marco Horizonte 2020) para ayudar a las pymes a establecer cadenas de suministro basadas en datos y a utilizar más la computación en la nube. • Proponer nuevas reglas en lo referente a la “propiedad de los datos” y a la responsabilidad del suministro de datos para los datos recogidos a través de la Internet de las Cosas (comunicación máquina a máquina). • Realizar la cartografía de normas sobre datos, identificando las posibles lagunas. • Establecer una serie de centros de supercomputación de excelencia para incrementar el número de trabajadores cualificados en el ámbito de los datos en Europa. • Crear una red de instalaciones de procesamiento de datos en los diferentes Estados miembros. (TICbeat, 5/07/2014). Esta recopilación y análisis de datos, por cierto, entra en conflicto con la privacidad de la información personal, tema que abordamos en otro apartado. 3.3.5. ¿Una internet sin servidores?

Un grupo de investigadores de la Universidad de Cambridge (Reino Unido) está tratando de desarrollar el concepto de una internet basada en la conexión entre equipos individuales, en lugar de conectar ordenadores a servidores. El 50


proyecto se llama Pursuit, y está parcialmente financiado por la Unión Europea. Su objetivo es crear una arquitectura de Internet más rápida y sobre todo, más segura. En lugar de conectarse a servidores centrales y organizar toda la arquitectura en torno a ellos, como ocurre en la actualidad, Pursuit propone descentralizarla y lograr que los ordenadores y equipos individuales sean capaces de recibir, copiar y re-publicar contenido que reciben de otros equipos. Es decir, los ordenadores podrían acceder a datos e información de múltiples fuentes a la vez, en lugar de un solo servidor central. La propuesta es que Internet deje de funcionar en torno a las URL y pase a funcionar en base a URIs (Uniform Resource Identifiers). Estas URIs especificarían dónde se encuentran los datos y qué ruta seguir en la nueva red para encontrarlos y descargarlos. Sin embargo, hay múltiples obstáculos, entre ellos el aún escaso poder de computación de móviles y tabletas comparado con los ordenadores, o el enorme reto tecnológico que supondría pasar de una arquitectura a otra. (Engadget, 31/10/2013) 3.3.6. Internet cuántica

Investigadores de Los Álamos confirmaron la creación de una red cuántica que llevaría funcionando dos años y uniría varios ordenadores, en que cada nodo de la red estaría dotado de transmisores cuánticos. La razón por la que la idea de una internet cuántico mejoraría la seguridad de las comunicaciones está basada en cómo podemos medir partículas cuánticas (como los fotones). El acto mismo de medir un fotón hace que este cambie, lo que, trasladado a los sistemas de comunicación, haría dejar un «rastro» en caso de interceptación. Ésto permitiría el desarrollo de sistemas de comunicación mucho más rápidos y seguros. Sin embargo, el empleo de nuevos sistemas de criptografía de este tipo se ve aún limitado por la tecnología actual. (Alt1040, 7/05/2013). 3.3.7. IoT (Internet de las cosas) y gadgets 3.3.7.1. Avances

El concepto de Internet de las cosas nació en 1999 y se atribuye al Auto-ID Center, basado en el MIT. La idea era que si todos los objetos (libros, electrodomésticos, partes de un vehículos, etc.) estuvieran equipados con dispositivos de identificación (como etiquetas de radio), ya no existirían cosas fuera de stock o

51


productos perdidos, porque sabríamos siempre dónde están y también lo que se consume en cualquier lugar. El protocolo histórico de internet (IPv4) no permitía la conexión de los objetos, porque estaba al borde de la saturación. Pero el desarrollo del nuevo protocolo IPv6, que empezó a implantarse a fines de 2012, admite 2 128 o 340 sextillones de direcciones, lo cual alcanzaría para los 1.000 a 5.000 objetos que -se calcula- rodearían a cada ser humano. El gráfico siguiente ilustra los múltiples tipos de objetos involucrados y cómo se conectarían.

.

Fuente: Infographic Journal, 26/03/2014 (parte extraída del original)

52


Uno de los problemas de la IoT (Internet of Things) es la falta de un protocolo común y abierto. Para solventar este problema se formó la “AllSeen Alliance”, liderada por el fabricante de chips Qualcomm y Microsoft, que han convencido ya a 50 compañías, como LG, Panasonic o Sharp, para que se unan al desarrollo de un estándar denominado AllJoyn. Este será de uso libre y gratuito y permitirá que los distintos elementos que formen la internet de las cosas se comuniquen entre ellos sin problemas de compatibilidad. El problema, sin embargo, es que otros fabricantes de chips y grandes compañías tecnológicas planeaban crear organizaciones similares, comenzando una guerra comercial y tecnológica. (Xataka, 2/07/2014). Así, ARM, Nest y Samsung, junto con BigAss, Freescale, Silicon Labs y Yale, están elaborando un nuevo estándar de nombre Thread que permitiría más de 250 dispositivos del hogar conectados a la IoT en forma inalámbrica vía Ipv6 y proveería una intercomunicación segura y de bajo consumo dentro del hogar de una maera parecida a WiFi, NFC o Bluetooth. El consorcio asegura que la transición desde los actuales estándares a Thread será casi trivial, y que incluso ya han probado con éxito una versión reducida en los termostatos Nest. (Xataka, 16/07/2014). Las compañías Broadcom, Dell, Intel, Samsung, Atmel y Wind River han creado por su parte el llamado Open Interconnect Consortium, que tendrá como objetivo inicial construir un marco común en el mundo de las comunicaciones basado en los estándares de las tecnologías actuales, que permita el movimiento fluido de información sin cables entre ordenadores, dispositivos móviles y otros independientemente de su sistema operativo, marca o forma. (WwhatsNew, 8/07/2014). También ha surgido una propuesta de OASIS (Organization for the Advancement of Structured Information Standards) para sentar las bases de la internet de las cosas en el protocolo MQTT (Message Queuing Telemetry Transport) para la comunicación entre máquinas. La Asociación GSM (GSMA) ha estimado que 15.000 millones de dispositivos estarían conectados para el 2020, mientras CISCO los estima en 50.000 millones. La IoT podría ser un mercado de trillones de dólares. El MQTT (como el Http para la web) ocupa un ancho de banda más 53


reducido y ya se usa en compañías petroleras y de gas para monitorear sus gasoductos. (Computerworld, 26/04/2013). La EMC Corporation anunció el 9 de abril 2014 los resultados de su séptimo estudio sobre el universo digital, el único estudio que califica y pronostica la cantidad de datos producidos anualmente. El estudio, titulado “El universo digital de las oportunidades: información valiosa y el aumento del valor de la Internet de las cosas”, con investigación y análisis de IDC, revela cómo la aparición de las tecnologías inalámbricas, los ‘productos inteligentes’ y los negocios definidos por software desempeñan un papel fundamental en el crecimiento exponencial de los datos en todo el mundo. Debido, en parte, a esta internet de las cosas, el universo digital se duplica cada dos años y se multiplicará por diez entre 2013 y 2020 –de 4,4 millón de millones de gigabytes a 44 mil millones de gigabytes. (DiarioTI, 09/04/14)

Fuente: De The Future of the Internet of Things, Xively.com, 19/03/2014

Para 2020 serán entre 40 y 50.000 millones de aparatos los que estarían conectados a Internet, desde teléfonos móviles a las bombillas de casa. Básicamente un

54


aumento de 50.000 veces más dispositivos electrónicos conectados en menos de tres décadas. (The Connectivist, via Microsiervos, 13/05/2014) Queda un gran problema no resuelto: ¿Qué pasará cuando estos objetos terminen su vida útil y vayan a parar a la basura o, con suerte, a los contenedores de reciclaje? ¿Tendremos una internet de la basura? 3.3.7.2. Objetos destacados

• Smartwatches y pulseras de fitness Los smartwatches están generando hoy más impacto mediático que ventas y su futuro sigue siendo una incógnita por muchos millones que se invierta para convencer al consumidor de que necesita ponerse uno. Joe Thompson, editor jefe de la revista WatchTime y con más de 35 años informando sobre la industria relojera lo tiene claro: “La historia ha demostrado que no es práctico”, dijo a Efe. (Noticiasdot.com, 25/03/2014). Según Endeavour Partners, un tercio de los propietarios de wearables los abandonan a los seis meses. Para estos analistas, una de las claves del abandono radica en la necesidad de quitarse cada día el aparato para recargar la batería, aunque esto no ocurre con las pulseras Fitbit o Jawbone, que solo necesitan recargarse una vez a la semana o menos, lo que explica su mayor éxito. El estudio fue realizado en el último trimestre del año 2013 entre consumidores de Estados Unidos. En él se destaca que ya una de cada diez personas mayores de 18 años dispone de estos productos, principalmente pulseras medidoras de la actividad física. Nike, observando los resultados obtenidos, ha decidido despedir a la mayor parte de la división encargada de su pulsera Fuelband - que requiere recarga diaria - y canceló el lanzamiento de nuevos modelos (El País.es, 21/04/2014). En el Reino Unido las cifras que obtuvimos son también de rechazo a dichos dispositivos. En una encuesta de Accenture, menos del 30% afirmaban estar interesados en comprar un smartwatch, y apenas un 25% lo harían con unas gafas conectadas como las Glass de Google (Xataka, 2/04/2014). [Al lado, foto del Samsung Galaxy Gear]

55


Según datos de Endeavour Partners, uno de cada diez adultos de EEUU posee una pulsera o un dispositivo cuantificador, pero solo la mitad de ellos lo siguen usando. El problema que señalan no es tanto el precio o la utilidad sino la privacidad. Tal es la preocupación que según un estudio de la firma Toluna, el 72 por ciento de los estadounidenses asegura que no usaría las Google Glass porque les preocupa su privacidad. También surge el tema de la utilidad de los datos. En este sentido, los dispositivos que mayor éxito podrían tener son los útiles para el cuidado de la salud. (Xataka, 2/04/2014). Un estudio elaborado por la consultora Fjord, adquirida por Accenture, analizó 27 dispositivos ponibles o llevables, arrojando que siete de cada diez wearables sirve para monitorizar nuestro cuerpo de una u otra manera. Además, el 48% de los estos dispositivos están diseñados para mejorar nuestra forma física, el 23% nos permiten comunicarnos entre nosotros y el 7% pueden ayudarnos a mejorar nuestros hábitos de sueño y estado de ánimo en general (TICbeat, 13/06/2014) Durante el año 2013, Apple ha fichado al menos media docena de destacados expertos en biomedicina y expertos en hardware, de acuerdo a los cambios observados en sus perfiles de LinkedIn. Son ingenieros biomédicos de empresas como Vital Connect, Masimo Corp y O2 MedTech. Apple también ha contratado a los expertos en hardware Nancy Dougherty, ex integrante de la compañía de sensores portátiles Sano Inteligence, y Todd Whitehurst, vicepresidente de producto en Senseonics Inc, que trabajaba en un sistema de monitorización de la glucosa, según sus perfiles de LinkedIn. Gran parte de estas contrataciones están relacionadas con la tecnología de sensores, un área que el presidente ejecutivo de Apple, Tim Cook, destacó como “a punto de explotar”. Los expertos del sector dicen que se tiende a monitorear todo, desde los niveles de azúcar en la sangre a la nutrición, más allá de los aparatos de fitness actualmente en el mercado. Un ejecutivo del equipo iWatch de Apple dijo que las aspiraciones de la compañía van más allá de los dispositivos portátiles, y está considerando la posibilidad de una plataforma de servicios de salud y fitness completa en su tienda de aplicaciones. Al igual que Apple, Google tiene interés en la tecnología médica y está explorando las lentes de contacto que pueden monitorear los niveles de glucosa en las lágrimas. (Reuters, 5/05/2014).

56


• Hogar conectado Microsoft no se quedó al margen: adquirió Insteon, una empresa norteamericana creadora de diversos dispositivos que permiten automatizar diferentes elementos del hogar y controlarlos remotamente mediante software. Es posible que los usuarios de Windows 8.1 y Windows Phone 8 disfruten de sus aplicaciones desde el 1 de junio 2014. Podrán controlar luces, manejar puertas, fijar termostatos, comprobar cámaras de vigilancia, etc. (Xataka, 17/05/2014). Por su parte, Google adquirió Nest, una compañía dedicada a los termostatos, y Dropcam, que ofrece cámaras muy parecidas a la que se usan para saber si el bebé duerme, pero utilizando Internet como medio de gestión de la cámara en lugar de un circuito cerrado y el móvil, tableta u ordenador, en lugar de un monitor al efecto. (El país.es, 21/06/2014). Apple lanzó HomeKit. Ambos parecen bien armados para dominar el mercado de automatización de hogares, donde fabricantes como Samsung con su “Smart Home” (foto adjunta) también están listos para competir con sus electrodomésticos programables a través de la red. (Gizmologia, 1/07/2014). • Automóviles Los fabricantes de automóviles ya están mostrando también las primeras luces de la “internet de los autos” con el anuncio de que en 2014 varios modelos Chevrolet contarán con conexión 4G. Casi todo el mundo en el negocio del automóvil se da cuenta de que el coche como medio de transporte personal está cambiando rápidamente, debido en gran parte a la tecnología que va desde la conectividad en la nube hasta la conducción autónoma. En el evento “FutureWatch” de abril 2014, en su Centro de Investigación y Desarrollo en Silicon Valley, Mercedes-Benz ofreció a los medios de comunicación su propia mirada prospectiva y aseguró que la industria del automóvil va a cambiar más en los próximos 10 años que en los últimos 50. (PCmagazine, 1/05/2014)

57


Según algunos expertos, esta nueva era va a cambiar todo lo que conocemos al manejar, ya que probablemente la evolución de la tecnología incluya la total autonomía de los vehículos. Una primera etapa será mostrar en el parabrisas, a modo de realidad aumentada, los datos que hoy llegan a otros equipos como smartphones o GPS (Jaguar ya exhibió este sistema). Pero estos servicios se mutiplican rapidamente y podemos ya evitar los tacos gracias a que otros autos avisarán al nuestro de las calles que están más congestionadas. Pronto el auto se coordinará por sí mismo con la bencinera más cercana para llenar el estanque o recargar la batería, si es un automóvil eléctrico. O The Weather Channel nos avisará cómo va a estar el clima mañana o en el lugar al que vamos viajando. Y más allá, al coordinar más eficientemente el tráfico y la gestión de flotas en industrias de altas emisiones de CO2, la “internet de los autos” contribuirá a reducir la huella de carbono de las empresas y de los usuarios particulares. (El Mercurio, 11/03/2013) Según datos de GSMA, la asociación de operadores de celulares, y de la consultora SBD, este año 2014 se venderán en el mundo unos 19,8 millones de autos conectados, sumando casi 20 mil millones de euros (US$ 27.600 millones). En cuatro años más, en 2018, la cifra se habrá más que duplicado: el negocio sumará 40 mil millones de euros (US$ 55 mil millones) y las unidades alcanzaran las 66,7 millones. Los sistemas CarPlay de Apple y OAA de Google competirán con sus respectivas tecnologías para sumar la mayor cantidad de usuarios. Ferrari, Mercedes, Honda, Volvo o Hyundai anunciaron para este año autos compatibles con CarPlay mientras General Motors, Audi, Honda y Hyundai lo harían con OAA. (El Mercurio, 25/03/2014). Pero IAB, la asociación que representa al sector de la publicidad de los medios digitales en España, ha destacado la alta fragmentación de este mercado, en el que ya están presentes cuatro sistemas operativos diferentes: MirrorLink (Nokia), Android Auto (Google), Carplay (Apple) y Windows in the Car (Microsoft). IAB pronostica que la mayoría de las aplicaciones serán invehicle, y no a través de los smartphones (una opción menos segura), y que, en 58


ellas, lo táctil perderá protagonismo a favor de la navegación mediante comandos de voz, como ya ocurre en CarPlay. (TICbeat, 3/07/2014). Más aún: antes de que concluya la presente década, Nissan arrancará la comercialización de vehículos con tecnología de conducción autónoma, llamada “piloto para tráfico”, para mejorar la seguridad en caminos y carreteras, anunció su CEO. (El Economista, 21/07/2014). 3.3.7.2. Impacto

El coautor del protocolo TCP/IP de internet, Vint Cerf, advierte de los peligros de la “internet de las cosas”, que reúne cada vez más aparatos conectados a la red, y se asombra de la falta -en ellos- de sistemas de autenticación, lo cual presenta un grave problema de seguridad. Considera necesario recurrir a claves encriptadas (que combinan una privada y una pública). (ZDnet, 28/02/2013). La firma de analistas Gartner espera que la Internet de las Cosas impulse una convergencia de la informática y de las prácticas de seguridad en los próximos años. La gestión de los dispositivos de seguridad requerirá una combinación de habilidades de seguridad, dijo Earl Perkins, analista de Gartner y autor de un nuevo informe que analiza las implicaciones de seguridad de la IoT. Mientras las organizaciones de TIC han sido capaces de añadir cierto grado de protección a los teléfonos inteligentes, tabletas y otros dispositivos móviles, se les hace difícil hacer lo mismo con muchos de los dispositivos que integrarán la IoT dentro de unos años. La enorme cantidad de dispositivos que tendrán que ser manejados de esta manera podría plantear nuevos problemas debido a la gran heterogeneidad y cantidad de dispositivos que se conectarán a internet de aquí a 2020. (ComputerWorld, 2/04/2014) El impacto de la internet de las cosas podría ser mayor que el de la revolución industrial, según algunos expertos. “Será una tendencia que transformará todos los mercados e impactará en todas las industrias”, dijo José Manuel Petisco, director general de Cisco en España en la presentación a la prensa del evento Connect 2014, organizado por dicha empresa. Jorge Lang, director de Innovación y Soluciones de Intel Corporation para el sur de Europa, añadía: “No somos 59


conscientes de lo que va a impactar la Internet of everything; lo hará aún más que la revolución industrial del siglo XIX. Moverá 19 billones de dólares (14,5 billones de euros) en todo el mundo, de los cuales 14,4 billones se generarán en el ámbito privado y 4,6 billones en el público [...]. Las personas serán una parte muy importante del Internet of everything. Todos necesitamos un sexto sentido que nos oriente en un mundo que, a su vez, cada vez será más inteligente. Además, gracias a estas tendencias, las grandes megaciudades serán mucho más ‘vivibles’”. Por otro lado, esta tendencia traerá consigo una focalización en el individuo. “Pasaremos del café para todos a la personalización. Esto impactará especialmente en la oferta de los servicios y productos de las organizaciones y los anuncios publicitarios. Ya no serán generales para un grupo de gente sino personalizados al máximo en función de los gustos y preferencias de cada persona”, afirmó. El 83% de los entrevistados por Pew Research está de acuerdo en que “tendrán efectos generalizados y beneficiosos” para el año 2025. Por analogía, el GPS ha creado un mundo en el que la gente ya no se pierde. Un mundo en que todo sea digitalmente etiquetado permitiría que la gente siempre sea capaz de obtener información sobre cualquier cosa que encuentre. Pero muchos colocan sus respuestas en la categoría “sí, pero”. “Habrá comodidades y violaciones de privacidad”, escribió Justin Reich, miembro del Centro Berkman para Internet y la Sociedad, de la Universidad de Harvard. (Computerworld, 15/05/2014). Pero, sobre todo, la ‘Internet de las cosas’ posibilitará la anticipación. “Analizar los datos en tiempo real nos permitirá predecir tendencias y tomar mejores decisiones para mejorar la gestión de las ciudades, la energía que se consume, etc.”, afirmó Lang, quien indicó, por otro lado, la necesidad de dotar de máxima seguridad a todos los objetos conectados. “Todo estará conectado a Internet, a la Red abierta, no a redes privadas, y todo será susceptible de ser hackeado; así que hay que trabajar para que los dispositivos incorporen la tecnología de seguridad necesaria”, reconoció. (ABC.es, 25/04/2014)

60


3.4. Internet móvil De acuerdo con datos de Gartner, en 2014, presumiblemente, el 90% de las organizaciones desplegarán sus aplicaciones corporativas en los dispositivos móviles y el 80% de los profesionales utilizará al menos dos dispositivos móviles personales para acceder a datos corporativos. Además, Gartner señala que en 2016 se adquirirán a nivel mundial más de 1.600 millones de dispositivos móviles inteligentes. Dos tercios de los empleados (de organizaciones públicas o privadas) de todo el mundo poseerán su propio smartphone y/o tableta, siendo así que el 40% de tales empleados desarrollarán su trabajo habitualmente con tales dispositivos. (Centro Criptológico Nacional, p.8) “La tecnología en movilidad sería una simple herramienta de comunicación más, si no fuera por el potencial y mundo de servicios que las apps han traído a nuestra vida cotidiana” dice Juan Carlos Ramiro (Appsmag, 2/04/2014). Como lo muestra un estudio de Morgan Stanley, los usuarios de equipos móviles superaron a los de los PC fijos a principio de 2014 (ver gráfico), lo cual demuestra la importancia que están tomando las aplicaciones móviles y por que todas las grandes empresas están cada vez más preocupadas de esta realidad.

Fuente: comScore, 8/04/2014

61


Aunque el acceso móvil a internet es mucho mayor en Asia y África, vemos que es mayor en América del Sur que en Europa, acercándose en mayo de 2014 a la cifra de Norteamérica, según StatCounter (KPCB, 28/05/2014):

En 2010, cuando se lanzó el iPad, lo móvil representaba el 3,7% del tiempo digital de los norteamericanos, frente al 22% del PC. Sin embargo hoy lo móvil explica el 23,3% de su uso del tiempo, frente al 18% de los PC. La televisión pasó de un 41% a un 36%, y los periódicos en papel cayeron de 3,1% a 1,6%. El análisis de los horarios de las visitas de móviles y PC a la web refuerza la idea de que el fin de semana es el reino de lo móvil, que también se impone a primera hora de la mañana y después de las seis de la tarde. Un análisis de The Atlantic muestra que el futuro es móvil y oligopólico: Apple y Samsung tendrán el 96% de las ventas de aparatos móviles y Google y Facebook controlarán el 70% de las ventas de publicidad móvil. (E.Arriagada, en el Mundo/Orbyt, 29/04/2014) Las novedades de Samsung se unen a otros intentos como la Surface 2 PRO de Microsoft o el iPad Air de Apple por añadir a las tabletas prestaciones y potencia con el fin de que puedan convertirse en una herramienta de trabajo y reemplazar en muchos casos los PC o, al menos, los notebooks. “La frontera entre tableta y ordenador cada vez es más difusa”, explica Antonio Flores, analista de IDC, que 62


predice que el sector colocará 4,5 millones de estas máquinas en España en 2014 tras los 3,8 millones vendidos en 2013. Ésta es la “tercera plataforma”, dominada por la movilidad, que aunará la experiencia del tradicional escritorio con la interfaz de los dispositivos táctiles, aunque en casi ningún caso los usuarios de las tabletas están dejando de utilizar el PC según Javier Galiana, responsable español de consumo de Intel, en razón de su rendimiento. “Los desarrolladores en general y los fabricantes están viendo que se camina hacia esa convergencia”, agrega Flores (ABC, 24/03/2014). 3.4.1. Internet en telefonía

A finales de 2014 habrá en el mundo casi 7.000 millones de abonados a móvil según la Unión Internacional de Telecomunicaciones (UIT). La tasa de penetración en América y Europa ha alcanzado niveles superiores al 100 por ciento. (IBLnews, 5/05/2014). El estudio Digital News Report 2014 revela que, de los 11 países analizados, el 58% utiliza en promedio un smartphone (46% más que el año 2013), y un 37% empleó este equipo una vez en la última semana (31% en 2013). Uno de cada tres usuarios utiliza una tableta. (Newman & Levy, Reuters Institute, 23/06/2014). Según datos de la OCDE, Finlandia, Australia, Japón, Suecia, Dinamarca, Sur Corea y los EEUU tenían una penetración de banda ancho móvil superior al 100% de su población a diciembre 2013 (ComputerWorld, 22/07/2014). Según el estudio de Flurry, en el año 2013 los norteamericanos con teléfono móvil que se conectaban a internet pasaron el 86% del tiempo con aplicaciones (apps), y solo el 14% restante lo pasó conectado al navegador. El 32% del tiempo de las apps se lo llevan los juegos, seguidos de Facebook (17%), la mensajería instantánea, con 9,5% (destacando entre ellas WhatsApp, ahora de Facebook) y YouTube, 4,5%. La empresa Flurry ha planteado una nueva definición de la adicción al uso de teléfonos móviles, luego de analizar los datos de 500.000 apps instaladas en 1,3 mil millones de dispositivos: los adictos a los smartphones consultan apps más de 60 veces al día. Los usuarios más adictos son los adolescentes, estudiantes universitarios y padres de familia de mediana edad. (Diario TI, 22/04/2014)

63


Fuente: Flurry, en ABC.es, 3/04/2014

En España, según un estudio de la asociación IAB Spain, en 2013 las aplicaciones ya constituían, en un 73% de los casos, la puerta de acceso a Internet. Las apps están cambiando la manera en la que los usuarios se relacionan con la red y con sus equipos, “con una asombrosa capacidad para convertir un mismo dispositivo en veinte o treinta diferentes con un simple toque de la yema de los dedos”. (TICbeat, 16/06/2014) El gigante tecnológico chino Huawei, segundo fabricante mundial de equipos de telecomunicaciones, prevé que el desarrollo de las tecnologías de la información y la comunicación hará posible en 2025 que haya 8.000 millones de usuarios de teléfonos móviles inteligentes. (Noticiasdot.com, 27/04/2014) 3.4.2. Fotografía digital

La aparición de teléfonos con cámara fotográfica ha cambiado radicalmente el mundo de la fotografía de aficionados, especialmente por su asociación con las redes sociales. La misma industria se ha visto afectada: los siete grandes grupos japoneses del sector de la imagen digital (Canon, Nikon, Sony, Fujifilm, 64


Panasonic, Olympus y Casio) sufrieron en solo cinco años una caída del 50% de sus ventas de cámaras fotográficas. El declive es tal que Olympus ha abandonado los modelos compactos para concentrarse en los aparatos híbridos sin espejo, a medio camino entre los compactos y los reflex, y Sony y Fujifilm se han visto forzados a seguir la misma tendencia (Noticiasdot.com, 20/05/2014). 3.4.2.1. Auge de la fotografía digital

La tendencia dominante de compartir las fotos on-line conlleva también la disminución de la producción de fotos impresas, según señalan los especialistas (Lévêque, 2013) pero, al parecer, este fenómeno no sería intrínsecamente producto del auge de las “fonocámaras” sino de la fotografía digital en general, ya que las fotos se conservan y se pueden apreciar en los ordenadores. Los medios sociales solo han aportado una nueva -pero importante- forma de acumularlas y compartirlas. Queda por ver si, con el tiempo y la abundancia de lo compartido, servirán para cumplir la función recordatoria unida a la “solemnizadora”, las que justificaban la producción de álbumes en papel. Si bien algunas empresas ofrecen la producción de tales álbumes de fotos digitales seleccionadas, no existe aún, al parecer, una estadística al respecto. En el mundo, setecientos millones de teléfonos tienen hoy una cámara fotográfica. El 67% de los poseedores tomaría fotos al menos una vez por semana y el 54%, además, las enviarían por este medio a terceros. El 83% de ellos también utilizarían su ordenador con un programa para editarlas (Darell, 2013). Hoy se toman cerca de 1.000 millones de fotografías al día y se hacen más fotos en dos minutos que las que se hicieron en todo el siglo XIX (Aradas, BBC, 2013). 3.4.2.2. Álbumes y depósitos de fotografías digitales

La difusión de la fotografía digital dió pie a la creación de sitios web para publicarlas (anticipando el sistema, hoy más generalizado, de archivo en la “nube”, es decir en servidores externos destinados al almacenamiento de datos). Los lugares para compartir fotos en la Web no faltan. Los medios más comúnes, fuera de Facebook e Instagram, para compartir fotografías son Flickr (asociado a Yahoo!), Pinterest, y Picasa. Picasa fue creada en 2002 por Lifescape y es propiedad de Google desde el año 2004, integrado ahora a Google+. 65


Pero Facebook les hizo rápidamente la competencia y, en agosto de 2011, alojaba ya unos 140 mil millones de fotos, pasando del billón (un millón de millones) de páginas vistas en un mes (según FayerWayer, 29-08-2011). Con la adquisición de Instagram, sumó a esta colección a la propia, llegando de este modo a 100 millones de usuarios mensuales en febrero 2013. Entre los 3,5 trillones de fotos que existen alrededor del planeta (sólo en servicios de acceso público pero no solo internet) desde la primera imagen tomada por Joseph Niépce en 1826, el 4% pertenecía así a la red social Facebook (FayerWayer, 22-09-2011). Instagram, con 200 millones de usuarios activos cada mes, y Pinterest, con 20 millones de usuarios activos, son los principales destinatarios de la fotografía móvil, aunque la mayor parte de los otros depósitos de fotos también se abren a recibir estas como también algunas empresas de almacenamiento en la nube, como Dropbox, que compró -y desactivó- Loom para reforzar su propio sistema de almacenamiento de fotos llamado Carousel. Instagram, especial para usuarios móviles, cuenta con 20.000 millones de fotos (marzo 2014). Según la consultora Piper Jaffray, en los tres últimos meses de 2013 y los tres primeros de 2014, ha subido del 27 al 30% de uso por adolescentes norteamericanos, mientras Facebook bajaba del 27 al 23%. Un año antes, el mismo estudio colocaba a Facebook en el 33%. Ésto puede explicar por que Facebook compró Instagram y por que está comprando otras compañías como WhatsApp y Oculus. (El País, 14/04/2014) Pinterest cuenta con un mil millones de “Place Pins”, es decir de localizaciones de las fotos puestas por sus usuarios (ReadWrite.com, 15/014/2014). Google+, recibiendo 15.500 millones de fotos cada semana, es ahora el principal competidor en el campo de las redes sociales, especialmente desde que incluyó Picasa, pero aún está lejos de alcanzar a Facebook que, con más de mil millones de usarios, agrega 350 millones diariamente (dic.2013). Twitter, que es un sistema de “microblogging” (publicación breve) con rasgos de red social tiene una enorme participación pero la función fotográfica, agregada hace poco, no forma parte de su esencia y no permite formar álbumes. 66


Tanto Flickr como Picasa operan permitiendo la agrupación en álbumes temáticos. Pero también existen otros, evidentemente menos masivos (y que pueden desaparecer en cualquier momento, ya que muchas iniciativas son muy efímeras en la World Wide Web). Podemos citar Fotolog, el líder mundial de foto-blogging, que cuenta con más de 33 millones de miembros; Webshots, una de las mayores bibliotecas de fotos del mundo; el servicio de intercambio y comercio DotPhoto, y Photobucket. Algunos incluyen software para editar las fotos o, como Go2Album, una aplicación que permite a los usuarios construir su propia presentación de diapositivas en pocos minutos subiéndolas a su nube (servidor de almacenamiento). Amazon también creó un depósito en la nube: Cloud Drive Photos, cuya finalidad sería mantener copias de seguridad más que constituir un álbum. Permite subir y guardar fotos con una app de Android (5 GB gratuitos). Flickr pretende también competir directamente con servicios como Instagram con su nueva app para fotografiar con el móvil, que incluye filtros y permite compartir o comentar las fotos directamente tanto en Flickr como en otras redes sociales. Sin embargo, la transmisión directa de fotos está ganando últimamente en importancia, con WhatsApp y Snapchat, como muestra esta estadística de KPCB (28/05/2014):

67


3.4.2.3. Autofotos (selfies)

Con la aparición de los smartphones con doble cámara (una delantera y una trasera) ha surgida la moda de tomarse una autofoto (selfie). Google reveló que sólo en Android se suben más de 93 millones de selfies al día (LaTercera, 11/07/2014). El objetivo más común, al parecer, es dejar constancia de la presencia en un determinado momento y lugar, lo que un comentarista llamó “función notarial”. Éste agrega que “lo más significativo del selfie no es la imagen en sí, sino el hecho de tomarla”, lo que queda perfectamente ilustrado por la ira de Michelle Obama cuando el presidente se tomó una foto con la primera ministra de Dinamarca (Revista de Libros, El Mercurio, 6/04/2014). “Las selfies son una manera de inscribirse uno mismo en lo público, con una voluntad de ofrecerse al otro en una imagen que uno controla. Lo que implica una actitud narcisista al que la hace y voyerista al que la recibe. Y se han roto esferas de la privacidad, de lo íntimo”, dice Joan Fontcuberta, uno de los investigadores y fotógrafos más innovadores y notables de la actualidad, Premio Nacional de Fotografía en España. (Artes y Letras, El Mercurio, 11/05/2014) Un estudio realizado por Ashley Madison señala que el 75% de los hombres y el 70% de las mujeres practican esta técnica, unas cifras que en el caso de España ascienden hasta el 86% y el 83%, respectivamente (PRnoticias.com, 27/03/2014). Prueba del cambio en la concepción de la intimidad es la aparición de fotos de sí mismo teniendo sexo. Ashley Madison asegura que tomarse este tipo de selfie es ya una práctica muy extendida, sobre todo en Gran Bretaña. Ahí, el 71% de los hombres y el 69% de las mujeres reconoció haberse tomado una ‘sex selfie’ al menos una vez. Los franceses, al parecer, prefieren la versión sex selfie solo: 38% de los hombres y 31% de las mujeres se tomó este tipo de fotos sin su pareja. En la comparativa global, australianos, nórdicos, asiáticos y anglosajones son quienes más se graban. (Stilo, 23/03/2014) 3.3.4. Aplicaciones móviles

Las aplicaciones móviles (apps) están matando la web gratuita, dicen en Business Insider. Están fuertemente controladas por los propietarios de las tiendas de aplicaciones dominantes: Apple y Google. Controlan su existencia, cómo se construyen, cómo se promueven y cómo se cobran, con un impuesto del 30% sobre 68


los ingresos. También son censores. Apple prohíbe los bitcoins (moneda virtual) y la pornografía en su tienda, por ejemplo. Google impide en su tienda de Android cualquier aplicación que pueda dañar a los usuarios (malware). El resultado es que nos estamos alejando de una web libre y sin censura, pasando a una experiencia altamente controlada por un censor pagado, argumenta Dixon, un capitalista de riesgo que trabaja en Andreessen Horowitz. (Business Insider, 7/04/2014). La creatividad no falta. Las apps son miles, para los distintos sistemas operativos de los móviles. La última novedad que vimos al momento de escribir este libro ha sido un sistema lanzado por la empresa Durex que asocia una app a una línea de ropa interior masculina y femenina que funcionan como un “simulador” de contacto físico para parejas que mantienen una relación a distancia (foto lateral). Las prendas conectadas a la aplicación del smartphone permiten, a través de pequeños vibradores colocados en su interior, que las parejas puedan “tocarse” y gozar gracias a la tecnología digital. (Lacapital.com.ar, 23/05/2014) 3.4.5. Telemedicina y “e-salud” (mHealth)

Una revolución silenciosa ha estado sucediendo en la profesión médica y en el campo de la salud personal en los últimos dos años, encabezada por los teléfonos inteligentes y tabletas, que cambiarán para siempre la forma en que obtenemos y utilizamos información médica. Llamado mHealth (Mobile Health), este fenómeno abarca una amplia gama de aplicaciones, desde las de auto-cuidado en teléfonos Android de menos de 100 dólares en Kenia, a los mensajes de texto recordatorios del programa de vacunación de recién nacidos en la India, hasta pruebas personales como de signos vitales, presión arterial, ECG, medición de glucosa e incluso detección de enfermedades de transmisión sexual con un accesorio de teléfono inteligente, y el acceso del médico personal en su teléfono o tableta para verificar si el paciente tomó sus medicamentos o para explorar sus imágenes de radiología. Se informó que más del 80% de los médicos de los Estados Unidos llevaban teléfonos inteligentes y 30% tabletas para sus necesidades médicas. Y las 69


principales enciclopedias y revistas médicas tienen ya su versión para móviles. (Phonearena.com, 3/09/2011). Hay cientos de apps de temática médical en las App Store de Apple y Google Play, lo cual tiene preocupado a los médicos y ha llevado a una intervención de la FDA para elaborar un proceso de aprobación para apps médicas y acabar con las aplicaciones de salud cuestionables. Así, por ejemplo, varias aplicaciones ofrecen medir la presión arterial instantánea pero contienen una advertencia de que es para “fines de entretenimiento”, la cual no es inmediatamente visible cuando se ve la app en la tienda de Apple o Google Play, lo cual es altamente riesgoso si se toman por ciertas las mediciones. Según Iltifat Husain, un miembro del departamento de Medicina de Emergencia en la Wake Forest University School of Medicine, estas aplicaciones podrían muy bien llevar a alguien a una Unidad de Emergencia y tal vez hasta matarlo. (Wired, 29/07/2014). En 2015, un tercio de los usuarios de smartphones tendrá instalada al menos una app de salud según un informe impulsado por el Observatorio Zeltia, que recoge las claves de la salud móvil en el mercado hispanohablante y se prevé que este sector mueva 1.600 millones de dólares de aquí al 2017 en Latinoamérica. (Gacetas Locales, 1/04/2014) Samsung anunció que con 1,15 mil millones de dólares de inversión pretende crear una división médica dedicada a la comercialización de accesorios para sus pantallas táctiles. Desde este año ofrece softwares, aplicaciones y accesorios a precios imbatibles en la principal feria internacional médica. Los teléfonos que usan los voluntarios en África permiten evaluar la calidad de la vista y ver la causa del problema con un análisis de retina que hasta ahora necesitaba un equipo que no se conseguía por menos de 25.000 dólares. (E.Arriagada, El Mundo de la Tarde, 6/05/2014). Pero también podemos tener apps que nos conecten directamente con el médico. DoctorApp, por ejemplo, permite mandar consultas médicas de forma anónima a un equipo de doctores colegiados y residentes en España que está disponible las 24 horas del día. De este modo, en vez de pedir hora e ir a la consulta, si no es un problema grave, podemos recibir la respuesta de un profesional rápidamente. La 70


moneda de cambio de DoctorApp son unos “créditos” que hay que ir comprando a medida que se hacen las consultas, pero a cada consulta que un médico responda, se dona parte de lo pagado a una ONG que el médico escoge. (Genbeta, 9/06/2014). Esta nueva área es tan importante que Google X, la división más creativa e innovadora de Google, ha puesto en marcha un programa llamdo Baseline Study cuyo objetivo es extraer los datos del cuerpo humano y de la salud de miles de personas para tratarlos después y buscar coincidencias comunes que ayuden a reconocer enfermedades y posibles curas. Ya cuentan con un equipo de más de 70 científicos que, por ahora, recopilan información genética y molecular de 175 personas, para después ampliar su estudio a miles de participantes. Recolectarán análisis de fluidos (sangre, orina y lágrimas), muestras de tejidos, el genoma de cada participante, el historial genético de sus padres, cómo metabolizan distintos componentes (comida, nutrientes, drogas...), cómo se comporta el corazón frente al estrés, etc., y almacenarán los biomarcadores de personas que actualmente sufren distintas enfermedades, con lo cual podrían ser capaces de diagnosticar dichas enfermedades de manera temprana en otros pacientes. Paralelamente, están diseñando distintos dispositivos orientados a la salud con el fin de poder hacer un seguimiento continuado de los pacientes. (Xataka, 25/07/2014).

71


4. Funciones 4.1. Correo y mensajería 4.1.1. e-Mail

Sin duda el correo electrónico o e-mail es el servicio más antiguo de los que llegaron al gran público, antes de la World Wide Web e incluso antes de internet, ya que comenzó a utilizarse en 1965. Existieron y aún existen aplicaciones (“clientes”) de mail que no utilizan los navegadores, si bien hoy casi todos los proveedores de correo dan el servicio de correo por web. Hace ya unos 15 años que puedo comunicarme por web-mail con mi hermano, a 14.000 km de distancia, abandonando definitivamente las cartas y el correo físico internacional. Las ventajas son claras5. En la actualidad, existen más de 2.200 millones de usuarios de correo electrónico en todo el mundo y el tráfico diario del mismo es de 144.000 millones de mensajes (IBL News, 18/01/2013). El Radicati Group calcula que se superarán los 4.000 millones de cuentas de correo en 2015 (Gráfico siguiente). El 75% de las cuentas son personales y 25% institucionales.

Fuente: Radicati Group, via msexchange.org

Los servicios más usados son Outlook, Hotmail, Yahoo! y Gmail. El servicio de Google -Gmail- es el mayor proveedor de correo electrónico con 425 millones de usuarios activos a nivel mundial (IBL News, 18/01/2013). Gmail es la primera 5

Lamentablemente, siendo de mayor edad, es rehacio a utilizar Skype.

72


aplicación que superó mil millones de instalaciones en Android (Wwwhat's New, 12/05/2014). 4.1.2. Mensajería

Hasta mediados del año 2000, se “chateaba” en el PC y se “texteaba” en el teléfono móvil. Pero con el mejoramiento del ancho de banda en la web móvil, las apps de chat adquirieron un mayor ritmo. El ecosistema de mensajería ahora cuenta con más de veinte aplicaciones, con diferentes características sociales y de intercambio que actúan, esencialmente, como SMS con adiciones, con grupos de chat, video conferencias, llamadas de voz, pegatinas, compartir contenido, y más. Si el ‘texting’ alcanzó 7,4 trillones de mensajes en 2010, declinó rápidamente después, los usuarios pasándose a las apps, más ricas, principalmente WhatsApp, que había nacido en enero 2009. El 31% de todos los usuarios móviles utilizaba un servicio de mensajería instantánea al final de 2013 y pasaban en promedio 7,6 horas al mes en ellos. El 29% de los adultos de 18 a 24 años utilizaba un servicio de mensajería casi cada día. (IPG Media Lab). Las preferencias por país se indican en el siguiente gráfico:

Fuente: FayerWayer, 23/05/2014

El 19 de febrero de 2014, WhatsApp fue comprada por Facebook por 19.000 millones de dólares (RTVE, 20/02/2014). El 19% de la población mundial usa 73


WhatsApp. Los mayores consumidores son los países asiáticos, seguidos por África del Sur y América Latina. España, es el único país europeo presente en su Top Ten mundial. (Noticiasdot.com, 25/05/2014). WeChat es su principal competidor (ver gráfico en página siguiente). La profesora S. Turkle, del Instituto de Tecnología de Massachusetts (MIT), considera que el teléfono inteligente nos está dejando mudos. “Le pregunto a la gente qué está sucediendo con la conversación y ellos me dicen: `Lo que está mal es que se lleva a cabo en tiempo real y no se puede controlar lo que uno va a decir´. A lo que se refieren es que prefieren tener el control y poder hacer su parte de la conversación cuando están relajados, cuando pueden editar y también quieren publicar su parte de la conversación” (BBC Mundo, 3/07/2014). La AIMC mide cada tres meses los hábitos de los españoles mayores de 16 años. En la última medición, perteneciente al primer trimestre de 2014, los encuestados señalaban que el 78,2% utilizó el correo electrónico en el último mes, el porcentaje más bajo desde el año 2002, y dos puntos menos que el año anterior. Pero WhatsApp se empleó en el último mes el 79,5%, 15 puntos más que un año antes, superando por primera vez el mail. En tercer lugar se mantenían, estancados, los servicios de redes sociales, con el 60,9% (El País.es, 22/04/2014). El 64% de los internautas españoles ha utilizado mensajería instantánea o ha escrito mensajes en redes sociales, frente al 57% de los internautas europeos (TICbeat, 15/07/2014). Facebook Messenger, con 200 millones de usuarios, es la tercera app de mensajería más utilizada. WhatsApp y WeChat tienen 500 y 355 millones de usuarios activos, respectivamente, y Messenger dobla en tamaño a Viber (ver gráfico siguiente) (Genbeta, 24/04/2014). WeChat creció 379% en 2013, según el estudio Social Media 2014, de la Online Business School (El Mercurio, 12/05/2014) y Line está ganando rápidamente usuarios jóvenes gracias a su oferta de iconos (stickers) pagados, que constituye la mitad de sus fuentes de ingresos según IPG Media Lab. Un artículo del Wall Street Journal mostró la primera cifra de usuarios activos para la japonesa Line: 175 millones de usuarios:

74


Fuente: Genbeta, 24/04/2014

También está ganando usuarios Snapchat, gracias a su particular sistema que permite que los mensajes enviados desaparezcan después de ser vistos, lo cual también evita el seguimiento y la explotación analítica de datos, algo muy valorado por los usuarios. Snapchat es una de las apps con mayor crecimiento del último año, convirtiéndose en la sexta del ranking de mayores descargas en la App Store (Apple). Se calcula que sus usuarios envían más de 350 millones de imágenes cada mes, un impacto tal que Facebook ofreció -inútilmente- comprarla por 3.000 millones de dólares. Otros desarrolladores siguieron la tendencia y múltiples sistemas parecidos han surgido (Clipchat, Wickr, Squawk, Hash, TigerText, etc.) (ABC, 17/02/2014). La más nueva Telegram superaba los 35 millones de usuarios activos a inicios de 2014 (ABC, 25/03/2014). Demuestran a las claras que los usuarios valoran este mecanismo que les da mayor privacidad. Como Facebook no pudo comprar el exitoso Snapchat, entró recientemente en la mensajería efímera comprando Slingshot, que permite compartir fotos, texto y vídeo y para poder ver el contenido recibido es necesario mandar un mensaje de respuesta. Luego el mensaje recibido desaparecerá. (El País.es, 18/06/2014)

75


La consultora On Device llevó a cabo una encuesta a más de 3.700 usuarios en todo el mundo para mostrar cómo esta nueva ola de aplicaciones estaba robando público a las redes sociales, incluso en el mundo profesional. Las redes sociales quedan relegadas para comunicar de uno a muchos, para que algo sea público y obtenga difusión, mientras la conversación más personal pasa a la mensajería. Es una de las razones por las que Facebook desembolsó una enorma cantidad de dinero para adquirir WhatsApp. (El País.es, 10/07/2014). En España, las radios (como Melodía FM y Máxima FM) son las que más utilizan apps como Whatsapp y Vine para proveerse de contenidos y relacionarse con sus oyentes, pero la prensa también se interesa y El País incluye WhatsApp para recibir noticias de sus lectores. Incluso la BBC ya ha comenzado a usar sus funcionalidades para recibir vídeos de sus espectadores. (PRnoticias, 26/03/2014)

4.2. Streaming 4.2.1. Música

El mercado de la música también ha conocido con internet una revolución. Durante un tiempo algunos sitios web ofrecieron acceso a las producciones musicales pero sin contar con las licencias correspondientes y tuvieron que desaparecer. Económicamente, ha sido un desastre para la industria discográfica: de ganar cerca de 11 billones de dólares en 2003, justo antes de que la burbuja explotara, el negocio debió conformarse con poco más de 7 billones el año 2012. El dinero, para ellos, siempre estuvo en el soporte físico, pero cometieron el error de cambiar de formato con excesiva rapidez: del vinilo al casete y de este al CD. “Prefirieron succionar hasta la última gota de sangre del grunge, a mediados de los 90, antes que prestarle atención a un simpático nuevo invento llamado MP3. Su grave falta de visión al no querer desarrollar un formato que a priori consideraron de baja rentabilidad, fue la que terminó hundiéndolos”, explicó Andrés Panes en El Mercurio (9/11/2013). Basándose en datos de Nielsen y Billboard, KPCB mostró del siguiente modo la situación del consumo de música en los Estados Unidos (28/05/2014):

76


77


El éxito inicial de las plataformas de descarga pirata y - sobre todo - el demostrado éxito del modelo de negocio de iTunes, lanzado por Apple, obligó a las compañías a revisar su actitud de rechazo (Apple ha vendido más de 25.000 millones de canciones). La misma Asociación de Industria Discográfica de Estados Unidos (Recording Industry Association of America, RIAA) demostró la vigencia e importancia comercial del sistema de descarga de obras (singles) como modelo de negocio (gráfico anterior, de marzo 2014), al cual se ha de agregar el sistema de streaming de las radios. El streaming de música es el segmento de la industria musical que más está creciendo en todo el mundo. Según datos de Nielsen, el consumo de música por demanda en EE.UU subió un 50,1 por ciento en 2013 y 42% en el primer semestre de 2014, mientras las ventas de canciones individuales se redujeron en 13 por ciento y las descargas de álbumes el 11,6 por ciento. Y en los últimos tres años el consumo online ha crecido un 124% en Latinoamérica. Las ventas de iTunes fueron menores en un 24% según datos de Morgan Stanley (9to5mac.com, 4/07/2014). Estos servicios acumulan bases de datos de un promedio de 20 millones de temas y la mayoría promete recomendar música basada en los gustos del oyente. Los servicios gratuitos ofrecen sus canciones en la calidad -mediocredel MP3 liviano, y solo pagando se puede acceder a la máxima resolución que permite el formato, 320 kbps (El Mercurio, 10/05/2014). En el caso de España en 2013 más de la cuarta parte de lo gastado en música por los usuarios fue a parar a este tipo de servicios (Genbeta, 21/05/2014). Mientras muchas compañías discográficas y cinematográficas lloraban por el daño que les hacía la piratería, otras empresas no dejaron de moverse para tratar de adaptarse al mercado actual y conseguir que el negocio siguiera funcionando. Spotify, creada en Suecia en 2008, es un claro ejemplo de ello. Es un servicio que permite a los usuarios escuchar música totalmente gratis, con una gran base de canciones, y con publicidad cada ciertas escuchas. Su versión Premium, de pago, elimina la publicidad. En abril de 2014, Spotify tenía ya 40 millones de usuarios activos cada mes, de los cuales 10 millones eran suscriptores de pago y estaba presente en 40 países (Genbeta, 21/05/2014). En los primeros 4 meses de 2014, había añadido más de un millón de usuarios activos en el Reino Unido, lo que

78


podría implicar que adelante a iTunes como el mayor servicio de música digital de Europa (The Guardian, vía Alt1040, 25/04/2014).

Fuente: Genbeta, 21/05/2014

iTunes redujo su impacto el pasado año en un 26% respecto al año anterior y, paralelamente, las ventas del iPod han caído de 4,57 millones de unidades en el tercer trimestre de 2013, a 2,9 millones en el tercer trimestre de 2014, lo que significa una baja en ventas de un 48%, muestra de que los usuarios están cambiando sus preferencias (ABC.es, 30/07/2014). Spotify es una de las redes P2P más grandes de Internet. Cuando debutó, en el año 2008, el servicio de música por streaming dependía totalmente de la tecnología P2P (de persona a persona) para entregar rápidamente su catálogo de canciones a sus millones de suscriptores. En 2011, el 80% del tráfico del servicio era a través de redes P2P. Cuando los suscriptores de Spotify reproducían un tema en su cliente para computadores, la música podía provenir de tres fuentes: del caché del computador, de uno de los servidores de Spotify, o de otro usuario de Spotify a través del P2P. Sin embargo, en 2014 el servicio dejó de depender del P2P, entregando esta función únicamente a sus servidores centrales. (FayerWayer, 17/04/2014).

79


Pero incluso los servicios de streaming se ven afectados por problemas financieros: según aumenta su base de usuarios y el número de reproducciones, los pagos a las discográficas son mayores, afectando a los márgenes de negocio de las empresas. Así, muchos servicios de streaming de música, como los de Samsung y Twitter, han debido cerrar sus puertas en los últimos meses y años, marcadando la incapacidad de los principales actores del mercado por convertir su actividad en un negocio rentable. La golpeada industria discográfica debe “adaptarse o morir”. Después de llorar por sus pérdidas, los grandes vendedores de música tratan por fin de seguirle la corriente al pulso de la audiencia, e intentan recuperarse cambiando la forma en que promocionan sus productos (El Mercurio, 9/11/2013). Pero no será fácil porque los servicios de streaming también sufren pérdidas dado que sus millones de abonados prefieren escuchar anuncios de vez en cuando antes que pagar una suscripción mensual. Según datos de PrivCo, Spotify ha perdido 200 millones de dólares en los últimos años. Un 70% de los ingresos de la compañía van a parar a la mano de publishers y discográficas, que son los encargados de repartir el dinero entre escritores, artistas y demás miembros de la industria musical. Queda solo un 30% para cubrir los gastos propios (entre ellos financiar la operación del servicio gratuito) y nuevos proyectos de la compañía (Genbeta, 2/06/2014) El sistema de consumo de música sin descarga también ha frenado las ventas digitales. Según el último anuario de la IFPI (asociación mundial del sector), los ingresos de la música han seguido cayendo en 2013 y los que se obtienen vía digital solo han crecido un 4,3%. Son ya el 39% del total, pero de esos ingresos digitales, el 67% proviene de descargas y el 27% de suscripciones al streaming, que han crecido en un año un 51,3%. En el último cuarto de siglo el pago por la música se ha ido reduciendo: si el CD costaba 21 euros, la descarga de ese mismo álbum en iTunes valía 9,99 y ahora por ese dinero se tiene en streaming toda la música del mundo y sin límites. (El País.es, 23/05/2014) Estas dificultades perjudican aún más a los músicos. Los márgenes que obtienen de las reproducciones de sus videoclips y canciones en los grandes servicios de streaming y vídeo online son irrisorios mientras las grandes multinacionales

80


obtienen enormes pagos de los nuevos servicios digitales de música. Hasta ahora, solo las discográficas independientes han acordado tratar a sus artistas de forma justa en los acuerdos firmados con terceros relativos a la explotación digital de su música. Pero YouTube amenazó con bloquear todos los contenidos que hasta ahora los independientes han subido a su portal si no aceptan los nuevos términos que pretende imponer. (TICbeat, 16/07/2014). 4.2.2. Cine - TV

La historia del acceso a las producciones cinematográficas, y luego de las series de televisión, ha sido muy parecida a la de la industria discográfica. Durante años el cine llegó a los hogares por medio de soportes físicos: primero las cintas (VHS o Betamax) y luego los DVD y Blu-ray. Los discos Blu-ray, la última novedad, fueron lanzados oficialmente en 2006 con el respaldo de Sony y otras empresas, y durante cierto tiempo compitieron con el HD-DVD para ser el formato de la ‘próxima generación’. Sin embargo, el mercado no se movió del DVD al Blu-ray, pues los consumidores prefirieron el formato de contenidos por streaming, y las ventas de DVD y Blu-ray cayeron en picada, al punto que Sony advirtió a sus inversionistas que perderá millones debido al Blu-ray (FayerWayer, 2/05/2014). Mucho se ha dicho (producto del enojo de las compañías cinematográficas) de la piratería de las versiones digitales. Pero un estudio de Koleman Strumpf concluyó que la piratería apenas influye en los ingresos de las compañías. Consideró 150 películas a lo largo de un período de siete años (entre el 2003 y el 2009) y con miles de observaciones diarias. Midiendo los ingresos de esas películas y teniendo en cuenta el momento en que su versión pirateada empezó a compartirse en la red, Koleman dedujo que las pérdidas por la piratería se quedaron en unos 200 millones de dólares (durante el primer mes de estreno de una película), apenas el 3% de los ingresos totales de las películas medidas. El estudio también ha revelado la posibilidad de que la piratería actúe como publicidad: la simple acción de estar en las listas de los trackers hace que el usuario esté más al tanto de su lanzamiento, lo que se traduce en “modestos efectos positivos” en las taquillas, que podrían compensar en parte las pérdidas. Irónicamente, las entidades anti-piratería se gastaron más del doble de esos 200 millones para frenar la circulación de copias en las redes P2P (Genbeta, 16/07/2014).

81


El vídeo online ha alcanzado cifras récord según el informe de Adobe Digital Index. En 2014, la visualización de vídeo móvil subió un 57 por ciento con respecto al mismo período del año 2013, y el vídeo en línea en general tuvo un aumento del 43 por ciento, lo que representa más de 35 mil millones de visionados. La recepción en equipos con iOS es la más frecuente, seguida por la visualización en el PC y, más atrás, en equipos con Android. Pero el uso de consolas de juego tuvo un importante crecimiento en 2013. (New York Times, 4/06/2014).

Si bien Youtube es el actor dominante de visualización a nivel mundial, con 1.000 millones de visitantes únicos diarios, Facebook también se está elevando como fuente de reproducción de vídeos: con la introducción del sistema de vídeos de reproducción automática en el cuarto trimestre de 2013, la reproducción se incrementó un 785% interanual y 134% intertrimestral (DiarioTI, 2/05/2014). Pero es sin duda Netflix, una empresa que se inició vendiendo DVD en 1997, que está haciendo cambiar el panorama de la televisión, pasando del cable a internet y, especialmente, al modelo de entrega “a la demanda” (on demand). E introduce 82


incluso una exigencia particular para los ISP: ofrecer un ancho de banda suficiente, superior a 6 Mbps actualmente, que debería crecer a un mínimo de 20 Mbps y de hasta 50 Mbps en el futuro, para reproducción en alta definición. Esperan que esta HD llegue a ser un servicio básico dentro de 5 años (Xataka, 12/05/2014). Se estaría produciendo un rápido cambio en la difusión de la televisión, basado en una nueva lectura de la demanda: pasar a canales por internet y a la entrega “a la carta”. El streaming a la carta está cambiando la manera de ver televisión. Cuando solo se podían ver los episodios de una serie en un día fijo, la audiencia potencial decaía a medida que pasaban los días. Si alguién se perdía el primer episodio había pocas posibilidades de que se enganchase en la segunda o tercera entrega. Netflix trajo una revolución al permitir la elección del día y de la hora así como de los episodios. Con la televisión a la carta, ya no es necesario maximizar la audiencia (opción obligada de los ejecutivos de las cadenas televisivas) y los guionistas y creadores ganan en libertad y creatividad. Las series ya no necesitan “ser del gusto de todos” y tampoco seguir el formato de capítulos de una hora (o de 40 minutos generalmente). Los canales a la carta también tienen mayor libertad: pueden exhibir un piloto para evaluar la reacción del público y luego convenir o no la producción. (BBC, 23/07/2014). Algunos canales de televisión han observado con interés el éxito de Netflix: su streaming supone casi un tercio del tráfico web en Norteamérica en los picos, según la empresa de investigación Sandvine (Gadgetmania, 16/06/2014). Teniendo internet y la televisión por cable, ¿no preferirán los clientes escoger sólo los programas que les gustan, en vez de suscribirse a “paquetes” de canales entre los cuales muchos no les interesan? El analista Mulligan dijo que el nuevo desafío para los creadores de contenidos, en particular la industria del cine, es replantearse cómo lanzar nuevas películas para darle prioridad a la audiencia de internet. “La solución principal para las películas sería tratar a los sitios como Hulu, Netflix o cualquier servicio de cine, como medios prioritarios”, le dijo a la BBC. “Allí están los clientes más valiosos. El BluRay y el DVD son un segmento de mercado condenado a morir.” (BBC, 18/30/2014)

83


“Las cadenas de televisión tienen serios motivos para estar preocupados puesto que un estudio llevado a cabo por Deloitte en Estados Unidos revela un dato revelador: los llamados ‘millennials’, los jóvenes con edades entre los 14 y los 24 años, optan mayoritariamente por ver los vídeos en ordenadores y tablets dejando apagados sus televisores. La mayoría de los encuestados ven los vídeos en sus ordenadores, pero los tablets e incluso smartphones también son opciones elegidas antes que encender el viejo televisor. Este cambio de hábitos está forzando a las empresas de sondeos a cambiar los métodos de medición y es que se trata de un claro cambio de hábitos. ¿Los más mayores? Siguen pegados a sus teles: un 92% de los mayores de 67 años encuestados siguen fieles al televisor, porcentaje que desciende al 53% en el rango de edad de 25 a 30 años.” (Engadget, 27/03/2014) En Gran Bretaña, se embarcaron en la difusión por internet Sky con su nueva 'EPG', BT con 'YouView' y la BBC, que moverá su canal juvenil 'BBC Three' enteramente a Internet. Y es que Sky ha descubierto que “en menos de dos años, 4,4 millones de clientes ya han conectado su sintonizador a la banda ancha” (The Telegraph, 15/03/2014). En España, Movistar TV, que tiene 730.000 usuarios, ofrecerá una tarifa plana adoptando el modelo de Netflix (Genbeta, 9/06/2014). El cambio, sin embargo, es riesgoso y es dudoso que se generalice. Mientras la televisión abierta (TDT) o la TV-cable solo necesita emisores potentes en las regiones que cubren, la TV por internet (TVIP) requiere además potentes servidores capaces de responder a la demanda de millones de usuarios, lo cual está lejos de ser trivial técnica y económicamente. Una alta demanda de un mismo programa puede conducir fácilmente a un “atochamiento”, ralentizando el servicio o produciendo incluso el equivalente a un ataque de denegación de servicio, que bloquearía los servidores. Pocos canales de televisión están hoy en condiciones de realizar las inversiones necesarias. Prueba de este problema es que el estreno de “Game of Thrones” colapsó el sitio de HBO Go el 6 de abril 2014. Además, con el avance de la alta definición y especialmente los proyecto de ultra alta (4K), las necesidades de banda ancha también crecen y ponen más exigencias a los ISP.

84


Netflix parece haber reconocido el problema y, a pesar de su conocido éxito en internet, inició su integración en la TV por cable en Estados Unidos, empezando por tres pequeñas compañías de TV-cable que suman más de 700.000 clientes: RCN Communications, Atlantic Broadband y Grande Communications. Estas empresas no pueden compararse con gigantes como Comcast o Time Warner Cable, pero este movimiento muestra que sí pueden coexistir los dos modelos dentro de un mismo negocio: el entretenimiento vía internet y vía TV. Netflix ya había realizado una asociación semejante en Europa, con Virgin Media en el Reino Unido (Wwwhat's New, 25/04/2014). Parecen tener claro que hay una importante diferencia entre contenidos de éxito masivo y contenidos “de nicho”. Así, para 2025 están seguros de poder ofrecer a sus clientes una selección personalizada de vídeos, especialmente a pequeños grupos con gustos muy específicos y programas que no serían rentables en los grandes canales de TV (Wired, 19/05/2014). En estos casos está claro que el problema de la sobrecarga de los servidores se evitaría, a la inversa de lo que ocurriría con los éxitos masivos. A pesar de ello, las grandes empresas, desde Google hasta Amazon, pasando por Apple, Yahoo! y Microsoft, también se lanzan en el streaming de vídeo por internet. Google se hizo hace tiempo con YouTube, donde agrega nuevos canales. También ha comprado el servicio de streaming Twitch, popular entre gamers y con más de 50 millones de usuarios activos, por cerca de mil millones de dólares (Xataka, 25/07/2014). Amazon, basándose en el éxito de su e-comercio, se embarcó también en el servicio de streaming y el desarrollo de shows propios e incluso de hardware con su Fire TV, una consola al estilo de la Xbox One. Yahoo! se dispone a competir con YouTube y Vimeo en el terreno de los vídeos creados por los usuarios, para completar el servicio de vídeo para contenidos “profesionales” que ya posee, Yahoo Screen (TICbeat, 31/05/2014). Microsoft, por su parte, pretende expandir las funciones de la Xbox estrenando a nivel mundial la suscripción a Xbox LIVE, con shows, series de animación en stop-motion y programas sobre fútbol como los del Mundial de Fútbol de Brasil (Gizmodo, 7/04/2014). Apple ha desarrollado Apple TV, un pequeño aparato que conecta una pantalla con los diferentes dispositivos de la marca (iPhone, iPad, Mac, MacBook) para ver todo tipo de contenido mediante Air Play, reproductor en streaming, o disfrutar de todos los contenidos de iTunes (ABC.es, 12/04/2014).

85


La consejera delegada de Yahoo!, Marissa Mayer ha anunciado que producirá dos series de ocho capítulos, Space y Sin City Saints, para atraer más público a su servicio Yahoo Screen que, desde que se estrenó en octubre 2013, ha tenido 500 millones de visionados. No son los primeros intentos en producción, pues hace dos años incluso contó con la participación de Tom Hanks en Electric City, pero sin mucho éxito. Amazon anunció que pagará 300 millones de dólares a HBO para que le deje distribuir viejas series como Los Soprano o The Wire. Amazon no tendrá las series más recientes ya que solo podrá difundir obras con tres años de antigüedad. La misma Amazon abrió concurso entre los lectores para que votaran una decena de programas-piloto y continuar su producción o no. En el caso de GoogleYouTube su estrategia es la de ofrecer canales para promoción de artistas, principalmente musicales, pero también de cineastas. Es el líder absoluto en visionados, con más de 11.700 millones en febrero, frente a los 459 millones de Yahoo!, pero no ha entrado en la producción, como es el caso de Microsoft, que promueve las series de ciencia ficción Halo y Humans, pero para la consola Xbox One. (El País.es, 29/04/2014). Además, Google prevé comercializar Android TV, un “set top box” muy intuitivo y fácil de manejar para permitir el acceso a todo tipo de contenido de entretenimiento o aplicaciones (ABC.es, 12/04/2014). Queda cada vez más claro que, para tener éxito en el cambiante mundo de los medios de comunicación, una empresa tiene que controlar tanto el contenido como los canales de distribución, dice Neil Irwin. El que controla el último medio por el que la gente obtiene información y programación en sus salas de estar cuenta con el mayor poder. Si no tiene ninguno de los dos, es un mero intermediario, consignado a baja o nula rentabilidad. Hace veinte años, HBO estaba más cerca de ser un intermediario, teniendo películas hechas por los estudios y pagando altas tarifas para llevarlas a su línea de cable. El problema con esta estrategia era que HBO quedó vulnerable a los cambios tecnológicos. Con películas a la carta le fue mejor, pero cuando la gente comenzó a consumir más vídeo en línea, HBO se vió en riesgo de ser presionado por los estudios de cine que le proporcionaban contenido y los distribuidores de cable que controlaban los canales. Así HBO comenzó de forma más agresiva el desarrollo de su propio contenido, anotando con el tiempo grandes éxitos como “Sex and the City” y “Los Sopranos”, asegurándose de que los operadores de cable 86


lo necesitarán tanto como HBO los necesitaba a ellos. Ahora, el nuevo acuerdo de HBO con Amazon parece ser una manera de hacer algo de dinero extra (Irwin, en The New York Times, 25/04/2014). Otro competidor es Vevo donde, cada mes, las reproducciones suman más de 6.000 millones en total. De ese número, 1.000 corresponden a Estados Unidos y el resto se reparte entre más de una docena de paises, principalmente Gran Bretaña y Alemania. En Latinoamérica, la plataforma principal de VEVO no está disponible, pero sus videos se pueden encontrar en YouTube. 65% del total de reproducciones se hace en tabletas, teléfonos y televisores conectados a internet (FayerWayer, 23/04/2014). “El streaming de vídeo según lo ofrecido por Netflix y Amazon Instant Video no se ve limitado por ninguna de las fronteras comerciales o técnicas de la televisión abierta tradicional o por cable. No hay horarios. No hay canales. Las únicas limitaciones son el ancho de banda que los centros de datos e Internet en sí mismo pueden soportar. ¿La comedia de media hora? ¿El drama de una hora? Estas son convenciones que surgieron por razones que no importan más. Bienvenidos a la verdadera nueva era dorada de la televisión, una televisión sin límites”, escribe Marcus Wohlsen en Wired (15/05/2014). En el streaming, los conceptos de episodio y de temporada ya no tendrían sentido. El creador de House of Cards ya se lo ha planteado: “He jugado con la idea de un espectáculo que no tiene episodios en absoluto. Eso sería simplemente una corriente de ocho horas por una temporada, y el espectador decide cuando quieren hacer una pausa, en todo caso.” (ibidem). La televisión por internet puede ciertamente entrar en una nueva era creativa, ya que depende más ahora de la tecnología para distribuir vídeo en línea que de los cánones del cine o de las series análogas. Y empresas como Netflix están bien situadas para innovar y estudiar la reacción de los espectadores. Pero Wohlsen, al considerar que el único límite a lo que puede hacerse es el dinero, podría estar equivocado: el límite, como ya señalado, es la capacidad de los servidores para atender millones de peticiones individuales simultáneas, lo cual no es sólo una cuestión de dinero.

87


4.3. Telefonía y vídeo IP 4.3.1. Telefonía IP

La telefonía sobre internet (tecnología VoIP) está afectando a las compañías telefónicas, que han visto decrecer fuertemente sus ingresos por llamados de larga distancia. Así, por ejemplo, en los primeros tres meses de 2013, las llamadas al extranjero desde Chile totalizaron cuatro millones, la mitad del número registrado en igual lapso de 2010, según cifras de la Subsecretaría de Telecomunicaciones chilena (El Mercurio, 8/08/2013). En términos generales, las compañías de telecomunicaciones norteamericanas han perdido 700.000 usuarios de líneas terrestres entre 2007 y fines de 2012. En el mismo período, Verizon perdió el 19% de sus ingresos y AT&T 16,5%, el número de suscriptores norteamericanos de VoIP llegando a 30 millones, desde los 121.000 que había en 2002 (S.Zakkas, en Infographicsmania, 20/09/2013). A principio de 2014, Telekom Austria terminó el traspaso de toda su red y sus 2,3 millones de clientes de la telefonía análoga a la telefonía IP. (UIT, 21/02/2014). “En solo cinco años, Skype se convirtió en el primer proveedor del mundo de comunicaciones de voz transfronterizas, con más de un tercio de todo el tráfico telefónico internacional (TeleGeography, 2013). Esto provocó el desplome del mercado de telefonía convencional, hizo peligrar enormes inversiones en infraestructuras e impulsó a los operadores de red a buscar las maneras de integrarse con estas y otras aplicaciones de internet o a cobrar más por el servicio.” (Dan Schiller, en BBVA, 2014, p. 271). A juicio de Schiller, los servicios en la nube (cloud computing) y la “internet de las cosas” han sido una respuesta a esta transformación de las telecomunicaciones, apoyadas por una fuerte campaña de relaciones públicas, a pesar de que otros sectores -como la educación (e-learning) y la telemedicina- se prestaban más para ello. ¿La telefonía IP reemplazará a la telefonía fija? AT&T y Verizon buscan eliminar para siempre las tradicionales y costosas redes de telefonía fija. AT&T ya advirtió de ello a su clientes de una ciudad norteamericana (Carbon Hill). Durante la última 88


década, AT&T y Verizon Communications Inc., los mayores operadores de telecomunicaciones en EE.UU., han estado enterrando cables de fibra óptica y modernizando antenas con la esperanza de reemplazar sus redes telefónicas centenarias con tecnología propia de la era de Internet. Las correspondientes mejoras en la velocidad de Internet y la cobertura inalámbrica han impulsado el uso del celular, la creciente popularidad del streaming de vídeo y las llamadas a través de la web, como con Skype. Las dos empresas, con un total de más de 250 millones de clientes, no ocultan su objetivo final: eliminar para siempre sus viejas redes que, alegan, les cuestan miles de millones de dólares al año, pese a que cada vez más clientes dejan de usarlas, atraídos por servicios de los proveedores de televisión por cable. Una red que funciona solo con internet podría conducir a mejores productos, precios más bajos y “ventajas masivas” para los consumidores. (Wall Street Journal/El Mercurio, 9/04/2014) Los operadores de VoIP rastreados por Point Topic en todo el mundo registraron un total de 155,2 millones de suscriptores globales a finales de marzo 2013. El crecimiento en 2013 bajó en comparación con el mismo período del año anterior (2,3% comparado con 3,0% en el 1er trimestre de 2012). Durante los últimos dos años, la mayoría de los trimestres han experimentado un crecimiento de entre el 2,5% y el 3,0%. Por región, el este de Asia encabezaba la lista con 35,7% del mercado global y Europa (todas las regiones) aparecía en segundo lugar con una cuota conjunta del 34,2%, mientras América del Norte estaba en el tercer lugar con un 25,1%. Centro y Sudamérica representaban en conjunto solo 4,5% del total. Brasil era el único país iberoamericano entre los “top 10”, con 5,3 millones de suscriptores (Point Topic, abril 2013). Otras fuentes también señalan una lenta disminución del uso de VoIP, de la que no encontramos aún explicación. En febrero 2013, la organización GSMA, que congrega a los principales representantes de la industria móvil, aseguró que los operadores de telefonía celular ganarán más dinero por los datos transmitidos que por servicios de comunicación de voz a partir de 2018. El primer país en que las personas usaron más sus celulares para intercambiar datos que para hablar a través de ellos fue Japón. Y Argentina será el próximo, según un informe reciente de la GSMA. Se calcula que el país sudamericano reportaría ingresos por US$5.220 millones por

89


concepto de datos, versus US$5.160 millones por voz al cierre de 2013. (BBC, 26/02/2013). 4.3.2. Videoconferencia IP

La videoconferencia basada en IP se hizo posible en la década de 1990 y se popularizó a través de servicios de Internet gratuitos como Messenger o iChat a partir del año 2000 pero su auge se debe sobretodo a Skype, creado en 2003 e integrado, después de su compra por Microsoft, a MSN Messenger que sustituyó en 2013. Skype utiliza un protocolo propietario de telefonía VoIP, basado en el modelo P2P (conexión directa de persona a persona) y no en el modelo clienteservidor común en la mayoría de los servicios web. Según una encuesta realizada por el Pew Center en Estados Unido, el número de videollamadas se ha triplicado, pasando de un siete por ciento hasta un 21 por ciento en los últimos tres años (2011-2013). A pesar de este crecimiento, la principal función que se sigue realizando mayoritariamente por las personas en sus teléfonos es la de enviar o recibir mensajes de texto: 81% de los usuarios lo hacen (IBL News, 21/09/2013). En videoconferencias domina Skype, pero también lo ofrecen Line, Viber y Google Hangouts. Es gratuito incluso con varias personas en Skype y Google, así como con posibilidad de compartir pantalla en estos servicios. Skype cumplió 10 años en agosto 2013 y fue comprado por Microsoft en 2012. Su versión de Android sobrepasó las 100.000.000 de instalaciones en 2013. Sus usuarios realizan diariamente llamadas y videollamadas que alcanzan los 2.000 millones de minutos, con 70 millones de usuarios simultáneos (Mashable, oct.2013). Viber permite realizar llamadas de voz usando la conexión a Internet (VoIP) y llegó a los 200 millones de usuarios en mayo de 2013. Además de su versión móvil, lanzó una versión para Windows y Mac que lo hará competir directamente con Skype. También permite mandar mensajes y poner stickers, y realizar videoconferencia aunque solo de PC a PC. Además, Viber está actualizando las versiones de Android y iOS con la opción de enviar mensajes de video (Wwwhat´s New, 7/05/2013). 90


Desde su lanzamiento, el 21 de enero de 2011, WeChat ha conseguido rápidamente un gran número de usuarios: 100 millones de cuentas en sólo un año y a principios de 2013 había alcanzado los 300 millones de usuarios. Entre sus funciones incluye mensajería individual y grupal gratuita entre plataformas con texto, notas de voz, imágenes, videos, datos de ubicación y más, videollamadas HD gratuitas, historial seguro de mensajes almacenados localmente, siempre accesibles sin conexión y red social privada para compartir fotos en grupos, todo libre de publicidad. (FayerWayer, 12/02/2013). WhatsApp también tenía previsto lanzar una función de llamadas de voz a mediados de 2014 (ABC.es,12/05/2014).

4.4. Redes sociales Las redes sociales son herederas de las “comunidades virtuales”, la primera de las cuales fue “Habitat”, que apareció en 1986, creada por Lucasfilm Games en colaboración con Quantum Computer Services Inc. Reunió miles de usuarios en una amplia red de computadores que ya usó el protocolo TCP/IP. Su primera versión partió utilizando servidores Stratus de Quantum Link y equipos Commodore 64 como “clientes” (usuarios), muy difundidos en esa época. Pero se encontró ahogado cuando la cantidad de usuarios simultáneos llegó a 50 aunque pretendía llegar a 50.000. Después del proyecto Habitat, Quantum Link sostuvo por un tiempo una comunidad que llegó a 30.000 participantes. Aparecieron después ExploreNet, Virtual City, Virtual Academy Network, LambdaMoo, Virtual Polis, etc. También aparecieron comunidades de servicios públicos como “The Vancouver Community Network”, todas las cuales desaparecieron. De estas comunidades virtuales solo sobrevivió “Second Life”, de 2003, un universo virtual en 3D que llegó a tener unos 13 millones de cuentas pero perdió muchos miembros con el auge de las nuevas redes sociales. Second Life fue censurado en Australia en 2009 por tener contenidos “para adultos” y catalogado como potencialmente peligroso por el FBI en 2011. En 2013 se renovó con mejoras gráficas y soporte para las Google Glass y las lentes Oculus Rift de realidad virtual, lo cual ha regenerado el entusiasmo en torno a la idea de los mundos virtuales que fueron vistos alguna vez como un sueño tonto. Pero los actuales avances en software, hardware y facilidad de uso han derribado las últimas barreras entre los usuarios y un mundo verdaderamente virtual. (ComputerWorld, 15/07/2014). 91


La primera “red de amigos”, antecesora de Facebook, fue Friendster, en 2002. Facebook se abrió a todos los usuarios de la web en 2007, después de lanzar un primer feed de noticias para amigos el año anterior. 4.4.1. Usuarios

En noviembre de 2007 las redes sociales superaron por primera vez al correo electrónico en horas de uso. En julio de 2009 ya tenían mayor número de usuarios que el correo electrónico. En septiembre de 2010 se alcanzaron los 1.000 millones de usuarios, la mitad de ellos en Facebook. (Castells, 2014, p.143). Un reciente estudio de Quantcast revela que las redes sociales generan el 34% de las referencias de tráfico web en dispositivos móviles. Se trata del doble de lo que mueven los equipos de escritorio. El informe - realizado con datos de entre enero del 2013 y enero del 2014 - recoge mediciones de las 250 principales publicaciones de noticias. Incluye el tráfico móvil a través de navegadores móviles, y aplicaciones internas en redes como Twitter o Facebook (Clases de Periodismo, 16/05/2014). Las redes sociales Facebook, Google+, Twitter con Youtube son las plataformas más utilizadas: tienen el 77% de la audiencia activa online. Los usuarios de redes sociales conforman los dos tercios de los usuarios de internet móvil. 400 millones de usuarios de internet móvil lo hacen con smartphones y 286 millones a través de 92


tabletas, según “Social Media 2014” de la Online Business School (El Mercurio, 12/05/2014). Según un estudio e informe realizado por la firma especializada ComScore, Latinoamérica sigue siendo una zona de gran crecimiento y consumo en cuanto a Internet se refiere. La región llegó a 160 millones de internautas y sigue siendo el lugar del mundo donde más se usan las redes sociales, con 9,2 horas promedio de uso al mes. A nivel mundial, el consumo de las redes sociales disminuyó 1,9%. Sin embargo, en América Latina aumentó 7,4% en el último año (FayerWayer, 3/11/2013). ComScore también reveló que de las ocho principales redes sociales, sólo dos (LinkedIn y Tumblr) tienen usuarios que pasan al menos el 50% de su tiempo en sus sitios utilizando una computadora de escritorio. Aunque gran parte de nuestra sociedad trabaja con un PC, las probabilidades son que los empleadores limiten el acceso a las redes sociales, obligando a los usuarios diarios a usar sus teléfonos inteligentes o tabletas personales para conectarse (Socialmedia Today, 23/07/2014). La enorme audiencia de las redes sociales ha sido un incentivo para las empresas, que también se han hecho presentes en ellas, tratando de reunir “seguidores” y, así, conocer mejor a sus clientes (ver apartados sobre big data y espionaje comercial). Un estudio de TATA Consultancy Services mostró que durante 2013, los grandes bancos del mundo invirtieron un promedio de US$ 15,5 millones al año en redes sociales y canales vídeo, pero están anticipando un crecimiento del 40% para 2015. No obstante, la banca está invirtiendo menos que el promedio total de las empresas líderes estudiadas. El promedio para 2013 fue de US$18,8 millones en 2013 y se espera que sea de US$24 millones en 2015. Los medios de comunicación y entretención y las empresas de alta tecnología son las industrias que más satisfechas están con la rentabilidad de las inversiones que han realizado en redes sociales (El Mercurio, 28/04/2014). ¿Adonde van los usuarios de las redes sociales, al encontrarse con los enlaces posteados por sus amigos? Para contestar a esta pregunta, la plataforma de monitoreo de redes sociales Shareaholic analizó la navegación de 250 millones de usuarios visitando su red de 200.000 sitios afiliados, y éste es el resultado, para las ocho plataformas más populares de medios sociales que consideró: 93


Fuente: Shareaholic, en Diario TI, 1/04/2014

Podemos ver que YouTube, Google+ y LinkedIn son los que generan el tráfico más relevante desde redes sociales, en visitas y tiempo dedicado, mientras Reddit y StumbleUpon producen más rebotes. Facebook, Google+, Twitter y Youtube son las plataformas más utilizadas: acumulan 77% de audiencia activa online según Social Media 2014, Online Business School (El Mercurio, 12/05/2014). ¿Y que ocurre con los posts publicitarios de las empresas? Un estudio de Forrester Research para el primer trimestre de 2014, basado en más de tres millones de interacciones de los usuarios y más de 2.500 mensajes de marca en siete redes sociales diferentes, confirmó que no existe compromiso alguno de los usuarios con las marcas comerciales. En seis de las siete redes sociales, las marcas analizadas obtuvieron una participación por debajo del 0,1%. Solo superó el 1% Instagram, logrando una tasa de participación por seguidor del 4,21%. (PRnoticias, 8/05/2014). A marzo de 2014, el 30% de las empresas con actividad en Social 94


Media tenía presencia también en Instagram según Shareablee. El lujo al por menor o los coches de alta gama son los que tienen mayor presencia ahí (PRnoticias, 5/06/2014) Hay que recordar que cada red social tiene su propia función. Facebook no es el mejor lugar para hablar de trabajo o hacer consultas profesionales: para ésto está LinkedIn. Y aunque Google+ quizó competir con Facebook, ha tenido más éxito entre los profesionales, quedando a medio camino entre los dos anteriores. Whatsapp, por su parte, es útil para contactos rápidos entre amigos y parientes pero, por cierto, no está destinado a enviar emails y menos aún tesis doctorales (¡al parecer se intentó!). También hay que recordar que ingresar en una de estas redes implica renunciar a parte de nuestra privacidad y que ésta es la forma de pagar por el servicio. “Hay que entender que las redes son un camino sin retorno [en cuanto a pérdida de intimidad]: pagamos por el uso de las redes sociales entregando información, lo hacemos al decir que nos gusta un libro, una película, al subir una foto… etc.”. Zuckerberg “sabe que cualquier comunicación funciona mejor cuando se comparte más intimidad entre los que se comunican [...] El que quiera entrar en las redes sociales se ve empujado a asumir un grado de transparencia que hubiera considerado completamente exagerado hace poco tiempo.” (Eduardo Arriagada, en el seminario Transparencia y Libertad de Expresión del Consejo de Transparencia chileno, abril 2014). Un informe publicado por Shareaholic, un servicio social utilizado por 200.000 editores que alcanza a 250 millones de personas mensuales, reveló las tendencias del tráfico de 8 de las mayores redes sociales en los últimos meses de 2012 hasta septiembre 2013. Los datos muestran un crecimiento año tras año de Facebook, Pinterest, Twitter, YouTube y LinkedIn, la disminución de StumbleUpon y Reddit, y los números mediocres de Google+. Facebook creció un 58,81%, Pinterest 66,52%, Twitter 54,12%, YouTube 52.86% y LinkedIn 34.51%. (Social Media Today, 16/10/2013).

95


Redes preferidas por regi贸n

Fuente: Gigya.com, dic. 2013

Evoluci贸n de los principales actores seg煤n tr谩fico

Fuente: SocialMediaToDay, oct. 2013

96


Tiempo diario dedicado a las redes sociales ● Según la edad:

Fuente: www.mylife.com, julio 2013

● Según la región o país

Fuente: FayerWayer, oct. 2013

97


Contenidos compartidos:

Fuente: IPSOS (oct.2013)

Las redes sociales tambiĂŠn se han transformado en una importante fuente de noticias (datos de Mylife.com, oct.2013):

98


Y las fuentes preferidas son:

Fuente: Pew, vía Mashable, nov. 2013

4.4.2. Empresas/Servicios

Nótese sin embargo que la popularidad de Facebook y Twitter estaría bajando entre los usuarios de las redes sociales según una investigación de la empresa YouGov titulada “Los medios sociales del 2014”. El informe señala que uno de cada diez usuarios en Internet dejó de usar Twitter; y la misma proporción también dejó de usar Facebook en el último año. ¿La razón principal? Señalaron que se trata de una pérdida de interés (55%), mayores preocupaciones sobre la privacidad (26%), y además uno de cada cinco usuarios asegura estar “harto de las estrategias de publicidad y marketing”. Por último, a uno de cada seis no le gusta que la gente extraña tenga acceso a sus datos íntimos (Noticiasdot.com, 20/06/2014). 4.4.2.1. Facebook

En 2014, 1.276.000.000 personas utilizaban Facebook al menos una vez al mes. 802 millones lo utilizan al menos una vez al día. 268 millones (21%) de los usuarios accede al servicio desde el PC de escritorio mientras 609 millones de personas lo hacen al menos una vez al día desde un dispositivo móvil.

99


1.008.000.000 lo utiliza al menos una vez al mes desde un dispositivo móvil (4 de cada 5 usuarios) y 26,7% del total lo utilizan sólo desde un dispositivo móvil y por lo menos una vez al mes. El número de usuarios que solo se conectan desde el móvil se ha casi duplicado en el plazo de un año. Dado que, según la UIT, el número de seres humanos con acceso a Internet de cualquier tipo alcanzó 2.784 millones en 2014, Facebook llega a un 45,8% de los seres humanos con acceso a Internet en el planeta (Shiftcom.com, 28/04/2014). Pero puede tener más de 100 millones de cuentas falsas según sus propias estimaciones, es decir cerca del 10% de su total de usuarios (Alt1040, 5/05/2014). Según la plataforma de intercambio social Shareaholic, que rastrea la actividad de unos 400 millones de usuarios en más de 300.000 páginas web, el tráfico de Facebook ha pasado de un 15,4% en diciembre 2013 a un 21,3% en marzo 2014, Pinterest ha subido de 4,8% a un 7% y Twitter de un 1,12% a un 1,14%. (Marketing Directo, 23/04/2014). Facebook es la red social más popular en América Latina, con alrededor de 179 millones de usuarios, de los cuales 65 millones en Brasil (Wired, 24/07/2014). Los adultos de menos de 55 años son los que más usan esta red social, según iStrategyLabs (gráfico siguiente). Este laboratorio también verificó que los adolescentes están dejando Facebook a razón de un millón por año desde hace tres, y el propio director de finanzas de la compañía confirmó en 2013 que estaban notando una pérdida de usuarios jóvenes. Sin embargo, este fenómeno no es geográficamente parejo. Un nuevo trabajo de Forrester Research apunta a que la red social sigue siendo una de las más usadas por los jóvenes norteamericanos. Ahí, la adopción de Facebook entre los jóvenes es mucho más alta que la de cualquier otra red social (a excepción de YouTube): más de tres cuartas partes de los jóvenes en línea usa Facebook -dos veces más que los que usan Pinterest, Tumblr o Snapchat, y más de los que usan tanto Instagram como WhatsApp. (TICbeat, 25/06/2014).

100


Fuente: Quartz, 14/05/2014.

Tanta audiencia asegura evidentemente excelentes ingresos. Ésta es la evolución de los mismos en los últimos años, según Business Insider (oct.2013):

En su reporte de ganancias del segundo trimestre de 2014 informó que obtuvo una ganancia de 791 millones de dólares y que los anuncios para móviles representaron el 62% de sus ingresos por publicidad, dos tercios más que el mismo período del año 2013 y casi 500 millones de dólares más que sus ingresos totales de 2012. La mayor parte de sus ingresos provinieron de Estados Unidos y Canadá. Con el botón 101


de “Comprar”, que recién incluyó, los anuncios serán un negocio aún mejor para la empresa, apoyados por su Red de Audiencia (Facebook Audience Network) cuya misión es poner en contacto de la manera más eficiente posible las aplicaciones para móviles con los anunciantes. (El Mundo, 24/07/2014). Pero la publicidad empieza a ser un problema para Facebook. Una gran lista de fans impulsó inicialmente en forma gratuita el tráfico de las marcas, para las cuales fueron creadas páginas especiales (Facebook Pages). Pero cuando Facebook se abrió a la bolsa, los accionistas comenzaron a reclamar utilidades y, para ello, Facebook empezó a decidir qué actualizaciones se ven y cuáles no, de acuerdo al pago de los avisadores, traducido en un algoritmo de “News Feed”. Así, las Pages pasaron a ser pagadas y la motivación de las empresas para publicar decreció notoriamente: algunas investigaciones muestran que sólo el 4% o menos de las personas están viendo las actualizaciones de las páginas empresariales en sus News Feeds. La agencia Ignite Social Media hizo un análisis en diciembre de 2013 y vio una caída de 44% en el alcance de las marcas orgánicas 6 en sólo 12 días. Marcas como Jack Daniels y Southern Comfort se han concentrado más en sus canales propios, como sitios web, blogs y correo electrónico, y Beyonce anunció el lanzamiento de su nuevo álbum en Instagram en vez de Facebook. Así, otras redes están atrayendo a las marcas, como ocurre con Twitter, y un nuevo canal como Flipboard está comenzando a atraer más tráfico que Facebook (Jeff Bullas, en blog de Linkedin, 5/05/2014). Facebook está tratando de mejorar sus ingresos publicitarios recurriendo a la compra de desarrolladoras de aplicaciones que los puedan potenciar, como LiveRail, una de las empresas líder en gestión de publicidad de vídeo en línea. (TICbeat, 3/07/2014). Los clics en anuncios de Facebook se incrementaron un 70% año-a-año (de 2012 a 2013) y un 48% trimestre-a-trimestre (intertrimestral) según el informe Social Media Intelligence Report de Adobe, basado en 260 mil millones de impresiones de anuncios en Facebook, 17 mil millones de visitas en sitios de redes sociales, y 7 mil millones de interacciones con marcas, el análisis más completo de la industria. (DiarioTI, 2/05/2014).

6

Cuentas de usuarios no pagadas, de empresas en este caso.

102


多Para que se usa Facebook?

Datos de IBL News, oct.2013

Fuente: Facebook, dic. 2013

103


Facebook hace frecuentemente noticia por cambios en su política o controles de privacidad, lo cual es posiblemente la mayor fuente de desconfianza hacia esta red, especialmente porque ofrece un reducido nivel de control. Estos constantes cambios han sido comentados por numerosos medios de comunicación y, debido a ello, se ha podido observar que el 61% de los usuarios ya no confía ciegamente en este sistema (ver gráfico siguiente, de noviembre 2013).

Si bien es posible editar el perfil de usuario para que otras personas no puedan ver su información personal, la empresa puede y utiliza los datos para servir a sus anunciantes. Si al registrar su cuenta incluye sus películas, programas de televisión y libros favoritos, los anunciantes estarán informados y tratarán de sacar provecho de ello. Y si borra completamente su cuenta, ningún usuario la verá, pero Facebook conservará y seguirá utilizando sus datos. Y para ello cuenta con las herramientas más avanzadas, constantemente mejoradas en su laboratorio de investigación dedicado a la inteligencia artificial. 104


Pero Facebook quiere ser mucho más que una red social. En abril 2014 anunció que había adquirido ProtoGeo Oy, un equipo con sede en Helsinki que ofrece una app de teléfono inteligente llamada Moves, que rastrea la actividad deportiva. Con Moves, ingresa al creciente mercado de las aplicaciones de gimnasias ya dominado por RunKeeper y Nike+. Pero también puede haber puesto la mirada en el floreciente mercado de los dispositivos portátiles. Esta adquisición se une a otras compras recientes que están ayudando a la compañía a ampliar su alcance más allá de la red social. Zuckerberg mismo señaló en una entrevista con The New York Times que la compañía ya no quiere concentrar todo en una única plataforma. Éste es un cambio importante de estrategia. Tradicionalmente, Facebook hacía todo lo posible para integrar los servicios ofrecidos: lo que sea que la gente hiciera en línea, ya sea compartiendo fotos o jugando, querían que lo hicieran en Facebook. Pero, tomando nota de que en el mundo gran parte de la actividad digital se ha desplazado hacia los teléfonos inteligentes y las tabletas - donde las aplicaciones son independientes - han visto la conveniencia de cambiar de estrategia. En el futuro, Facebook ya no será una sola aplicación, sino un conjunto de aplicaciones diferentes para muchas cosas diferentes, todo ello controlado por la misma empresa. Esta estrategia se hizo más evidente hace poco, cuando Facebook dijo que dejaría de manejar el chat en su aplicación principal, empujando la mensajería de texto hacia una aplicación independiente llamada Messenger. Facebook Messenger ya tiene 200 millones de usuarios y es la tercera app de mensajería más utilizada (Wired, 24/04/2014). Es interesante ver también que, al pasar de red social a plataforma social de servicios, Facebook está pasando “de la demografía a la psicografía”, señala Brian Solis en SocialMedia Today. En efecto, los usuarios no sólo encontrarán nuevos contenidos, aplicaciones y anuncios en función de a quién conocen pero, además, por lo que les gusta y expresan dentro y fuera de la red, es decir más en función de sus intereses que de quienes son. “Esto es lo que distingue a Facebook de Google. Es un enfoque más natural, utilizando un algoritmo humano en lugar de sólo un algoritmo tecnológico sofisticado", agrega Solis (Social Media Today, 2/05/2014). También ha lanzado FB Newswire, un nuevo servicio cuyo objetivo es verificar de manera casi inmediata las noticias que publican sus usuarios con el objetivo de 105


“ayudar a los periodistas a seleccionar material informativo fiable”, según informó la propia compañía en un comunicado. El servicio, lanzado en colaboración con Storyful (propiedad de News Corporation), consiste en una cuenta en la propia red social en la que se selecciona y ordena, de entre toda la información que circula por Facebook y que crean los propios usuarios, aquella que ha podido ser verificada. (El Mundo, 25/04/2014). El lanzamiento de aplicaciones independientes (apps) permite a Facebook desarrollar un nuevo frente con características y una flexibilidad ilimitadas en materia de diseño, pero empiezan con cero instalaciones y tienen que luchar para demostrar su valía más allá de la aplicación de Facebook ya existente. Su ventaja es que es más fácil y rápido acceder a ellas en el móvil, aunque algunos usuarios pueden no querer tener toda una carpeta llena de aplicaciones de Facebook y resistirse a descargarlas. Pero, la opción inversa - incluir todo en la aplicación principal - hace que las nuevas opciones pasen desapercibidas y sean olvidadas por los usuarios, como ocurrió con Nearby Places (Techcrunch, 27/04/2014). Otra prueba de que quiere convertirse en “empresa global” ha sido la compra, a principios de 2014, del fabricante de drones británico Ascenta, compitiendo con Google por la utilización de tecnología de vanguardia para suministrar internet a la mayoría de la población mundial, especialmente en el tercer Mundo (BBC, 14/04/2014). 4.4.2.2. Google+

Google+, lanzado en junio de 2011, registró unos 763 millones de usuarios a fines de 2013 según Social Media 2014 (400.000 en España), pero tenía un tráfico limitado a 318 millones de usuarios activos, según datos de la firma de análisis GlobalWebIndex, lo que le valió el calificativo de «ciudad fantasma» en el New York Times (ABC.es, 5/07/2014). (Google evita dar cifras del uso efectivo de su red social). Google quiso competir con Facebook, pero llegó tarde y sus esfuerzos no han dado los frutos esperados. Así, según reportó TechCrunch, Google pasó a considerar Google+ como una plataforma y ya no como un producto especial. Esto significa

106


que Google abandona la idea de hacer que Google+ sea una red social que compita con Facebook o Twitter. El equipo de ingenieros de Google+ se ha ido reenfocando en otros productos y el de Google Hangouts (videoconferencias de contactos de Google+) se ha movido al de Android (FayerWayer, 25/04/2014). Una nueva prueba de este cambio es que algunos desarrolladores han visto como el botón rojo de la red social está siendo reemplazado por uno azul que reza simplemente “Inicie sesión con Google” (y sin el símbolo matemático). Según la compañía, solo se trata de una prueba pero parece confirmar el cambio de estrategia (FayerWayer, 30/04/2014). 4.4.2.3. Twitter

Twitter, cuyo nombre original fue twttr, fue lanzado en marzo de 2006 por su creador estadounidense Jack Dorsey, un desarrollador de software que asistió a la Missouri University of Science and Technology y a la New York University. Aunque se incluye generalmente en la categoría de las redes sociales, Twitter, en realidad, no lo es o, al menos, no pretende serlo. Se ha de describir mejor como una plataforma social, y opera principalmente como “plataforma de información”. Y este tipo de plataforma, como señala W.Oremus, no debe ser juzgado con los mismos parámetros que las redes sociales. Su función principal es ayudar a mantenerse al día con lo que está pasando en el mundo, y lo que las personas influyentes están pensando y haciendo en un momento dado (W.Oremus, en Slate.com, 1/05/2014). El primer tweet como tal fue publicado por el propio Dorsey el 21 de marzo de 2006: “* Creando mi twttr*”. Twitter tiene 271 millones de usuarios únicos cada mes. Sus ingresos publicitarios subieron 129% respecto a lo conseguido el año anterior, llegando a los 277 millones de dólares (312 millones si se cuentan todos los ingresos). Pero según Dick Costolo, el consejero delegado de la compañía, la suma de quienes sí loguean en Twitter y de quienes no lo hacen pero, sin embargo, tienen acceso a sus contenidos de alguna u otra forma (en blogs, periódicos, etc.) conformaría el doble o incluso el triple de estos 271 millones de usuarios (Genbeta, 30/07/2014).

107


Fuente: Genbeta, julio 2017

En 2013, Peer Reach constató que Brasil era el quinto mayor usuario de Twitter, con el 4,3% de los usuarios globales (por detrás del Reino Unido y por delante de España), mientras que México tenía un 3%, Argentina 2,6% y Colombia 1,9%. Solo el 30% de usuarios de Twitter está en EE.UU. y Canadá.

108


Sin embargo, el español es la lengua con mayor presencia en la red social (32%), seguido por el inglés (28%) y el francés (7%) (BBC Mundo, 26/06/2014). El promedio de usuarios activos tuitea 20 veces al mes. Ese número ha crecido desde el 2009 hasta el 2012. Desde allí ha bajado o se ha nivelado. Los retuits (RT) crecen cada vez más, pero las menciones caen. Los RT suelen ser más frecuentes desde fines del 2013. Al menos el 55% de tuits contiene una mención a otro usuario. Solo entre 10% y 15% contiene un link. Lo mismo ocurre con los hashtags. Pero cuando la gente usa uno, suele agregar varios más. Más del 50% de tuits viene de equipos móviles. El inglés sigue siendo el idioma más popular hasta la fecha. Lejos aún está el español. Más del 30% de cuentas está inactiva (Liu, Kliman-Silverz y Mislove, 2014). Este número de cuentas inactivas y suspendidas se ha incrementado en los últimos años, cosa que está preocupando - quizás demasiado - a los inversores. Como Twitter está más cerca de un servicio de noticias que de una red social, Wall Street está cometió un error al compararlo con Facebook y preocuparse por su “falta de crecimiento”. Si la falta de crecimiento o la pérdida de usuarios es efectivamente un problema para Facebook, los tuiteros privados, sean grandes en número o no, no son los que dan a Twitter su identidad, dice W.Oremus (en Slate.com, 1/05/2014). Para responder a este “frenazo”, Twitter lanzó una campaña para demostrar que es la mejor plataforma también para compartir fotografías, ofreciendo la posibilidad de editarlas incluso con filtros, compartirlas en grupo y etiquetar a amigos o enviarlas a alguien con un mensaje privado, etc. (Genbeta, 9/05/2014). Además, adquirió MadBits, una startup dedicada al “aprendizaje profundo”, tecnología capaz de reconocer el contenido de las imágenes y organizar la información extraída para aprender de ello. Twitter haría uso de este mecanismo de inteligencia artificial para implementarla en su buscador, ampliando así su servicio (FayerWayer, 31/07/2014). 80% de los tuiteros tienen menos de 30 años y la mayoría utiliza una equipo móvil, mientras el uso de la computadora de escritorio está cayendo.

109


Fuente: PeerReach, nov. 2013

Facebook es la red preferida de las empresas comerciales y las 100 mayores empresas globales acumulan 4.730.237 seguidores, el 54% de los cuales se encuentra en los Estados Unidos; el 68% son hombres y el 44% tiene entre 26 y 35 años (datos de Burston-Marsteller, marzo 2014). Según un estudio realizado por la startup española SocialBro, el 57% de las empresas gasta en Twitter al menos un 50% más que hace dos años. Las corporaciones de más de 500 empleados usan Twitter sobre todo para captar nuevos clientes y crear relación con personas influyentes. El 74% de los participantes del estudio de SocialBro ha confesado estar fascinado por las posibilidades del marketing en tiempo real en Twitter, mientras que dos tercios han destacado su potencial para difundir mensajes de forma viral. La mayor preocupación del 53% de los profesionales es el tiempo que requiere la gestión de los perfiles sociales. (PRnoticias, 6/05/2014). El siguiente gráfico muestra como se reparten en términos de género y edad.

110


Fuente: PRnoticias, 26/03/2014

El 77% de los gobernantes del mundo tiene cuenta en Twitter. Si la popularidad de los mandatarios se midiera por el número de seguidores en Twitter, la mejor situada en América Latina sería la presidenta argentina Cristina Fernández de Kirchner. Los otros presidentes con más seguidores son el colombiano Juan Manuel Santos, el mexicano Enrique Peña Nieto y la brasileña Dilma Rousseff. Un estudio realizado por la firma de relaciones públicas estadounidense BursonMarsteller encontró que el papa Francisco es el líder político más influyente en Twitter. Los mensajes de Francisco se difunden más (mediante retuits) que los del presidente de Estados Unidos, Barack Obama, aunque éste tiene más de 43 millones de seguidores y Francisco “sólo” tiene 14 millones (BBC Mundo, 26/06/2014).

111


También se observa que los gobiernos latinoamericanos están entre los más activos.

Fuente: Burson-Marsteller

Según un estudio realizado por la startup española SocialBro, el 57% de las empresas gasta en Twitter al menos un 50% más que hace dos años. Las corporaciones de más de 500 empleados usan Twitter sobre todo para captar nuevos clientes y crear relación con personas influyentes. El 74% de los participantes del estudio de SocialBro ha confesado estar fascinado por las posibilidades del marketing en tiempo real en Twitter, mientras que dos tercios han destacado su potencial para difundir mensajes de forma viral. La mayor preocupación del 53% de los profesionales es el tiempo que requiere la gestión de los perfiles sociales. (PRnoticias, 6/05/2014). 112


Tras analizar en 2009 una muestra de datos de 40 millones de usuarios y 1500 millones de seguidores (followers) de Twitter, investigadores de la Universidad Autónoma de Madrid, el NICTA australiano y las universidades de Yale y de California-San Diego, en EEUU, han comprobado que cada usuario tenía un promedio de 25 seguidores, mientras que estos tenían, a su vez, 422 de media, es decir, casi veinte veces más. “Esto hace que los seguidores de una persona ocupen en una red social un papel que les hace relevantes a la hora de propagar o recibir información”, explicó Manuel García Herranz, del departamento de Ingeniería Informática de la Universidad Autónoma de Madrid. Con ello pudieron concluir que basta con utilizar los datos de 50.000 cuentas de Twitter para saber lo que será viral en todo Internet e incluso prever noticias como los movimientos sociales o las ideas que llevan mucho tiempo moviéndose en la red a pequeña escala y que terminan por llegar al gran público (Garcia-Herranz & alt., 2014). Las grandes empresas están muy interesadas en Twitter: 4.730.237 eran los seguidores de las 100 mayores empresas globales presentes en el sitio según datos de abril 2014 de StatSocial. Y Twitter está interesado, como otras redes sociales, en apuntarse al comercio electrónico. Desde mayo 2014 permite hacer compras en Amazon desde un tuit y hace poco adquirió CardSpring, una compañía que facilita a los comerciantes medios de promoción y pago electrónico (InformationWeek, 22/07/2014). 4.4.2.4. Linkedin

Linkedin es, como se sabe, una red dedicada a los profesionales y centrada en el trabajo. Ésto explica sin duda la diferencia con otras no solo en cantidad de miembros sino también en tasa de usos (ver gráfico adjunto. Fuente:Engadget, via SocialMedia Today, 23/03/2014). Como tal, no pretende competir con Facebook, pero ha realizado ingentes esfuerzos para incrementar la actividad de sus miembros que, por años, se limitaban a resumir ahí su currículo. El 67% de sus usuarios son de fuera de Estados Unidos y el sitio está disponible en 20 idiomas diferentes. El 58% de sus ingresos provienen de licencias a empresas para usar su software de reclutamiento. Complementa sus ingresos con la publicidad en el sitio y la compra 113


de suscripciones premium. El segmento de usuarios de Linkedin que crece a más velocidad es el de aquellos que recién salen de la universidad (BBC Mundo, 25/07/02014). Con más de 300 millones de usuarios a nivel mundial, la mitad fuera de Estados Unidos y 6 millones en España. Brasil es el tercer país con mayor número de miembros (17 millones), seguido de México con 5 millones. Los usuarios únicos por mes eran 187 millones a fines de 2013 (PRnoticias, 30/04/2014; LinkedIn blog, 18/04/2014).

El experto en marketing de LinkedIn, Wayne Breitbarth entregó algunas estadísticas acerca del uso de la red. 81% de los usuarios lo están usando de manera gratuita. El promedio de usuarios de LinkedIn tiene entre 500 y 900 seguidores. 26,3% de usuarios pasan entre 3 y 4 horas a la semana en el sitio. 75% de usuarios eligió “¿Quién miró mi perfil?” como la información preferida. El 74,1% de usuarios asegura que LinkedIn los ha ayudado para encontrar gente y compañías. El 59,8% ha usado la característica de ‘compartir actualizaciones de estado’ con seguidores de otras compañías. El 36,2% de los usuarios consideran que LinkedIn es extremadamente importante para hacer crecer su red de contactos, desarrollar un negocio y buscar empleo. El 70,6% de usuarios asegura que también usa Facebook para buscar empleo. (Clases de Periodismo, 9/05/2014).

114


LinkedIn está adoptando, de acuerdo con Deep Nishar, jefe de Producto de la red, tres estrategias: la apuesta por el móvil, la expansión internacional y las experiencias personalizadas. La red profesional ofrece actualmente mucho más que antes, y “sin el ruido de Facebook y el mar de información que circula en Twitter”. (QZ, 1/05/2014) 4.4.2.5. Redes sociales anónimas

Las redes sociales anónimas como Secret, Whisper, Rumr y PostSecret han experimentado un crecimiento explosivo. En estas redes nadie sabe quién es quién pero el efecto adictivo y multiplicador de las redes sociales parece encontrar en este anonimato un terreno fértil. Su auge quizá tenga que ver más con una necesidad de descargar problemas que con una rebelión. Por supuesto estas redes pueden propagar rumores y mentiras, así como hacer bullying y publicar palabras ofensivas o confesiones subidas de tono (BBC, 1/05/2014). Secret (para iOS, solo en los Estados Unidos y algunos otro países de habla inglesa) y Whisper (Android) parecen ser las redes anónimas más usadas. Whisper ostenta más de un millón de descargas en Google Play. Rumr es un chat anónimo en tiempo real (para iOS y Android). PostSecret es el blog de una comunidad artística - con un poco más de 100.000 usuarios - donde se crean y publican postales anónimas, mezclas de texto e imagen. 4.4.2.6. Otras redes

Instagram tiene ya 200 millones de usuarios activos cada mes y cuenta con 2.000 millones de fotos (Genbeta, 26/03/2014). Tiene más de 75 millones de usuarios activos cada día, con un promedio de 257 minutos mensuales de permanencia en el sitio y 8.500 “likes” por segundo. Acumula 16.000 millones de fotos y se le agregan 55 millones diarios (Digital Marketing Ramblings, via Social Media Today, 13/12/2014). Instagram es la única red que supera el 1% de interacciones de los usuarios con las marcas comerciales, logrando 4,21%, según un estudio de Forrester Research para el primer trimestre de 2014, basado en más de tres millones de interacciones de los usuarios y más de 2.500 mensajes de marca en siete redes sociales diferentes (PRnoticias, 8/05/2014).

115


Pinterest, red también dedicada a las imágenes, tenía 29 millones de usuarios a fines de 2012 y es la segunda red social con mayor tráfico de usuarios, según Shareaolics, cercano al 4%, mientras Facebook supera el 10% (SocialMedia Today, oct. 2013). El 62% de los usuarios tiene entre 18 y 49 años. El 59% de las imágenes es ‘subido’ directamente por los usuarios, que tenían una media de 171 pins a inicios de 2013 y de 229 seguidores. El 59% de los usuarios “clickeó” para hacer una compra (Pew Research, mayo 2013). Un estudio de RJMetrics basado en 50.000 usuarios seleccionados al azar mostró que el 92% de los pins son hechos por mujeres y que ellas conforman el 80% de los usuarios. La categoría de contenidos dominante es la de alimentos y bebidas, con 20% (RJMetrics, 7/05/2014). 4.4.2.7. Login social

El sistema de login social consiste en identificarse con una cuenta en alguna red social. Facebook y Google son las dos más utilizadas. Esta modalidad permite normalmente a la compañía que lo utiliza acceder a los datos personales del usuario de la red así como informa a la red social del acceso que obtiene a la web o app de la compañía asociada. Ambos acumulan así más información analizable en su base de datos (ver apartado 3.3.4 sobre Big data).

Datos de JanRain, vía Genbeta, oct. 2013

Al parecer, en Facebook se han dado cuenta que los usuarios se resisten a divulgar de este modo sus datos personales y los de su navegación por internet. Así, en abril 116


2014 anunciaron que al botón “Entrar con Facebook” se agregaría otro que permitiría el login anónimo (“Login Anonymously”). Al pulsar sobre éste, el usuario obtiene el acceso al servicio conectado, pero la otra empresa o compañía que está permitiendo el acceso a través del login con Facebook no va a poder tener acceso a ninguno de los datos de carácter personal que de la cuenta de Facebook. Además, y quizás lo más importante, otros usuarios de Facebook ya no serán capaces de compartir estos datos a través del uso de aplicaciones en la plataforma (Actualidad iPhone, 1/05/2014) . 4.4.3. Audiencia social de radio y televisión

El fenómeno de las “segundas pantallas”, asociado al uso de tabletas o smartphones al mismo tiempo que se ve televisión, introdujo un nuevo concepto asociado a este nuevo comportamiento: el de “televisión social”, que alude a la interacción del espectador y el medio, insertada en el concepto más general de “prosumidor” (consumidor actor) introducido por A.Toffler. La audiencia social es fruto de una segmentación en función de la interactividad a través de las redes sociales y, asociada a la televisión, introduce una conversación a distancia relacionada con los contenidos del medio, introduciendo une forma atípica de interactividad por cuanto no constituye un diálogo directo con el emisor. Es principalmente una conversación entre usuarios, que puede ocasionalmente “rebotar” en la red social del medio televisivo o llegarle a través de herramientas de análisis de contenido de las redes sociales. (Lo hemos observado también en el caso de la radio pero, al parecer, es aún menos masivo). Twitter es la red que concentra la mayor parte de las conversaciones sobre programas de televisión. En España, en 2013, el 67% de las cuentas de Twitter han comentado un programa de televisión durante su emisión y 32% de todos los comentarios en horario de primetime tratan sobre programas de televisión (Tuitele, 2013). De hecho, es el país europeo con mayor desarrollo de la audiencia social mientras Chile, Argentina y Brasil (n°1 mundial) dominan en Latinoamérica, quedando 5 países de habla hispana entre los 10 más activos en cuanto a comentarios de TV en redes sociales (TheWitspottER, 2013). Mostramos a continuación una estadística de los tipos de programas comentados en España según Tuitele (2013).

117


Las segundas pantallas ofrecen del mismo modo la posibilidad de una interactividad más directa e inmediata para los programas en directo si los presentadores tuitean y revisan los tuits de sus seguidores, lo cual añade una nueva dimensión a la comunicación. Hemos visto un buen ejemplo de esta nueva multimedialidad interactiva en la cuenta @conectadosagri de la Radio Agricultura de Santiago de Chile (imagen siguiente), que se combina con el programa de radio “Conectados en Agricultura” y la emisión del mismo por su canal de televisión en internet (http://radioagricultura.cl/client/videoOnline.html).

118


4.4.4. Participación cívica

Un estudio realizado por el Pew Research Center sobre el compromiso cívico en la era digital mostró que el 48% de los adultos estadounidenses participó en un grupo o actividad cívica en el 12 meses anteriores a la encuesta, y el 34% lo hizo a través de métodos en línea. El 39% de los adultos realiza actividades políticas o cívicas en sitios de redes sociales. Los adultos jóvenes norteamericanos (18 a 24 años) son más propensos que los adultos mayores a dedicarse a ser políticamente activos en las redes sociales. (A. Smith, 2013).

119


Del mismo modo, más del 80% de los jóvenes españoles, de una u otra forma, participan en las acciones a las que se les convoca a través de redes sociales con propósitos solidarios o cívicos, según un estudio de profesores españoles, quienes concluyen que las redes sociales han cambiado el significado de la participación, están incentivando el compromiso y consiguiendo que jóvenes que no se movilizaban fuera de ellas, pasen a la acción (García, del Hoyo y Fernández, 2014).

4.5. Comercio 4.5.1. e-Comercio

El comercio electrónico creció en 400% entre 1999 y 2009. Un estudio reciente descubrió que el 27% de los consumidores hicieron su última compra online. Aunque el último censo de Estados Unidos arrojó que solo el 5,8% de las ventas al detalle se hace en forma electrónica, un estudio de McKinsey determinó que sus márgenes operativos podrían aumentar en 60% (Forbes, 5/04/2014). Muchas empresas no saben aún como manejar adecuadamente el comercio electrónico. Saturan a sus clientes y a medios online de mensajes sin darse cuenta de que la mayoría son inútiles o francamente contraproducentes. No han tomado conciencia de que las redes sociales lo cambiaron todo. Lo más importante para las empresas es que el cliente haya tenido una experiencia placentera y la comprata con su red de contactos. El futuro de muchas empresas depende de que se den cuenta de que el usuario es el único protagonista y lo enfoquen todo a su satisfacción. “Pero son muy pocas. El 90% de las cosas que usamos a diario aún tienen detrás a sociedades que solo crean monstruos promocioneros”, dice Cristina García, vocal de la Asociación española de responsables de comunidad y profesionales de redes sociales, AERCO (El País.es, 24/07/2014).

120


Operaciones online detectadas en 60 segundos por Ever Merchant

Fuente: Ever Merchant.com, 10/07/2014, 18h30 (registro de 1 minuto en tiempo real)

121


Solo el 32% de los españoles ha comprado algún producto online en el último año, un porcentaje que no alcanza la mitad del que ocurre, por ejemplo, en Dinamarca o Reino Unido, y el uso de la banca electrónica es aún menor (TICbeat, 15/07/2014). El Asia-Pacífico, Norteamérica y Europa Occidental son claramente líderes en comercio electrónico según las mediciones de la Internet Society, mientras el gasto es muy inferior en Latinomérica (2014 Report):

Amazon, el líder del e-comercio, facturó en 2013 más de 67.000 millones de dólares (Applesfera, 7/05/2014). Amazon domina ampliamente en el sector de los e-libros: tiene entre un 60 y 80 por ciento del mercado. A finales de 2013, BISG publicó un informe en el que afirmaba que la cuota de Amazon en Estados Unidos era del 67%. En el Reino Unido esa cuota se dispara hasta el 79% según Ofcom, mientras en España se aproxima al 40%. Ésto significa que Amazon controla gran parte del mercado mundial de libros, tanto electrónicos como físicos, una concentración de poder que le permite pretender imponer sus condiciones a las editoriales, generando múltiples conflictos que afectan también, por cierto, a los lectores (Genbeta, 26/05/2014). Internet es el mejor soporte para la venta de libros electrónicos (e-books). En el año 2013, sus ventas obtuvieron un enorme récord en los EEUU, consiguiendo la cifra 122


más alta hasta ahora, y la venta en línea supuso un 35,4% de los ingresos totales de las editoriales, igualando a las ventas de libros en formato físico y en formato digital, según el Grupo de Estudio de la Industria del Libro y la Asociación de Editores Americanos (Wwwhatsnew, 2/07/2014). Los e-libros, sin embargo, siguen siendo una fracción mínima en otros países. El 26% de los libros españoles inscritos en el ISBN en 2013 fueron registrados como formato electrónico, pero en un porcentaje menor al de 2012 y 2011. Si antes de 2010 la oferta de títulos en español se situaba en torno a 10.000 referencias en las librerías online de EEUU, a finales de 2013 solo la web de Barnes & Noble ofrecía ya cerca de 65.000 libros y la página web en español de Amazon contaba con cerca de 70.000 títulos, cantidad que duplicaba a la que existía en 2012. Sin embargo, la ventas de libro en español en EEUU aún representa menos del 5% del total (Informe Fundación Orange, M.Gimeno, 15/07/2014). El 75% del comercio electrónico descansó en las redes sociales (esencialmente Facebook, Twitter y Pinterest) en 2013 y 74% de los compradores se basan en opiniones vertidas en estas redes, según Forrester Research y Business Insider (Socialmedia Today, 11/04/2014). Las opiniones positivas sobre productos adquiridos en las tiendas online son las que la gente más valora. Según un estudio de Max Woolf sobre la relación entre la puntuación que la gente otorga en las reseñas que escribe sobre productos en Amazon y la utilidad de dichas reseñas se desprende que lo verdaderamente útil para los demás son las opiniones buenas sobre algo, no tanto las malas. El análisis estadístico también muestra cómo la gente (11.676 personas) casi nunca utiliza las puntuaciones de 2 o 3: o le encanta un producto (5) o le gusta (4) o lo odia (1). Pero la gente marca más como “útiles” las buenas evaluaciones (Microsiervos, 2/06/2014). Ameri-commerce publicó una infografía en que muestra que las opiniones negativas sobre productos adquiridos se 123


difunden más que las positivas (imagen de la derecha, Americommerce.com, 9/06/2014). Las reseñas personales y los avisos publicitarios en las redes sociales remiten normalmente a páginas externas, de los proveedores, y si el interesado desea comprar, debe navegar hacia estas para realizar la compra. La tendencia actual, sin embargo, es a evitar este paso y facilitar la compra inmediata desde la misma “cita” en la red social mediante un botón “Comprar”, sistema que Facebook está probando en los Estados Unidos (TICbeat, 18/07/2014). La razón por la que las redes sociales como Facebook y Twitter planean incluir el comercio electrónico es tanto agregar un nuevo punto de venta para los fabricantes y publicistas como asegurarse más la permanencia de los usuarios. Pero el fracaso de Facebook Gifts demuestra que el comercio no puede ser su principal función: no se entra ahí para comprar (Mashable, 21/07/2014). Según el Mobile Media Consumption Report 2014 de InMobi, por lo menos 83 por ciento de los compradores con dispositivos móviles planea hacer una compra en su dispositivo este año. Además, el 48% de los encuestados indica que los medios de comunicación en sus dispositivos móviles tienen la mayor influencia en sus decisiones de compra (iPhoneLife, marzo 2014). En lo que a apps se refiere, según datos de App Annie para el primer trimestre de 2014, la tienda de Apple generó un 85% más de ingresos que Google Play, aunque Google Play acumuló 45% más de descargas, con 1,5 millón de apps disponibles.

124


iTunes tiene casi cuatro veces el número de cuentas que tiene Amazon (y por lo tanto, números de tarjetas de crédito en sus archivos). Esta brecha parece impresionante, sobre todo teniendo en cuenta lo mucho que las películas y la música se venden en Amazon. La gran cantidad de información de tarjetas de crédito de Apple (600 millones) podría llegar a dar a la empresa una gran ventaja si decide finalmente trabajar en una especie de billetera móvil (Business Insider, 28/04/2014). La firma de análisis móvil Adjust estima que de los más de 1,2 millones de apps que hay en la App Store, un 80% serían “zombies”, es decir aplicaciones que no reciben una atención medible para ubicarse en los principales listas de la tienda de Apple, y que se quedan sin ningún tipo de atención, mantenimiento o actualización. La consultora calcula que en el momento del estudio (junio 2014) había 953.387 apps abandonadas. Se han producido 75.000 millones de descargas y los desarrolladores han ganado 15.000 millones de dólares desde que se creó la tienda (La Razón.es, 14/07/2014). Los juegos participan en un 75% de los ingresos por ventas de apps en la App Store y 90% en Google Play (PCmag.com, 16/04/2014; Genbeta.com, 17/04/2014; TechTimes, 4/07/2014). Tanto Apple como Google tienen su propia versión de monedero electrónico, una nueva modalidad de pago que va en aumento. Según el Financial Times, Facebook también prepara el lanzamiento de servicios financieros a través de una plataforma 125


que permitirá que sus usuarios envíen dinero a sus contactos. Un reciente informe de Nielsen (Nielsen’s Q2 2014 Mobile Wallet Report) descubrió que un 40% de los usuarios norteamericanos de Google Wallet ya son más propensos a usar esta app que su tarjeta física y que los sistemas de pago peer-to-peer (como PayPal) son especialmente populares en EEUU, apreciados por un 73% de usuarios especialmente para dividir la cuenta cuando consumen con amigos o compañeros de trabajo (TICbeat, 28/07/2014). Según el estudio Mobile Payment Strategies: Remote, Contactless & Money Transfer 2014-2018, de la consultora Jupiter Research, en el año 2014 el mercado de los pagos móviles podría crecer en un 40% con respecto al año anterior, llegando a la cifra de 507.000 millones de dólares (El Mercurio, 28/04/2014). Ésto puede hacer tambalear el comercio tradicional. Según la firma de investigación de bienes raíces Green Street Advisors, el crecimiento de las ventas por internet ha obligado a J.C. Penney y Sears a cerrar locales que son pilares en centros comerciales de Estados Unidos, poniendo así los centros más débiles al borde del abismo, ya que conlleva también al cierre de locales más pequeños, por disminución de la clientela (Wall Street Journal / El Mercurio, 12/05/2014). La Comisión Nacional de los Mercados y la Competencia ha publicado los datos del comercio electrónico en España correspondientes al tercer trimestre de 2013, situando las cifras por encima de los 3.291 millones de euros y los 46 millones de transacciones, con un aumento de 21,7% del volumen de negocio con respecto al año anterior (Alt1040, 14/07/2014). 4.5.2. e-Dinero

Si las últimas tres décadas revolucionaron las industrias de la información y las telecomunicaciones, las próximas tres tal vez invaliden los principios básicos de las finanzas: moneda, crédito y bancos, como también los sistemas de pago y transmisión. Un sistema de pago por Internet exitoso es PayPal, que existe desde 1998. Permite registrarse una sola vez con nombre, número, fechas de expedición y de caducidad de la tarjeta de crédito. En 2002 lo compró eBay por 1.500 millones de dólares. Doce años después, el 41% de la facturación de eBay provenía de PayPal. Tenía 143 millones de cuentas y operaba en 26 divisas y 193 países, 126


procesando nueve millones de pagos al día. Pero utiliza monedas “reales” (dólares, euros, etc.). Se está expandiendo también rápidamente con PayPal Working Capital, un programa de financiamiento para pequeñas empresas, y también ahora con PayPal Credit a nivel internacional. Y planea hacer de PayPal Credit una opción para el creciente número de transacciones móviles de apps que procesa su subsidiaria Braintree (ReadWrite, 30/07/2014). Aunque avanza adaptándose a las nuevas formas de pago mediante móviles, no tiene la última palabra. Lo que preocupa la banca es otra cosa: el surgimiento de las monedas virtuales. En los últimos años, hemos empezado a ver indicios de una reestructuración del sistema monetario electrónico con el surgimiento de Bitcoin, el ecosistema que está creciendo en torno a este y la adopción de actividades crediticias de persona a persona como el Lending Club. Un bitcoin es una moneda que no existe en la vida real, pero tiene valor, el cual al momento de redactar este texto alcanzaba los 454 dólares (un año antes tenía un valor de 93 dólares, siendo que valía 11 centavos cuando se creó); por lo tanto, quien tenga un bitcoin puede comprar cualquier cosa que valga 454 dólares. Los bitcoins utilizan complejos algoritmos y criptografía que los vuelven una moneda confiable. Cada vez que se hace una transacción con esta divisa, una red de computadores chequea que la moneda no esté duplicada. Así, todas las transacciones son conocidas, pero no se sabe quién las realiza. La forma más fácil de obtener bitcoins es comprarlos a través de sitios dedicados a su transacción, aunque se puede crear mediante un complejo sistema computacional (“minería de bitcoins”). A pesar de la promesa de las nuevas monedas y los sistemas de transacción, hay una larga serie de esfuerzos fallidos. En 1998, se introdujo una moneda virtual llamada Beenz. Los clientes ganaban Beenz cuando visitaban ciertos sitios web y compraban en ciertas tiendas en línea. Tenía el respaldo de inversionistas como Lawrence Ellison, jefe ejecutivo de Oracle. Pero a pesar de su promesa, fracasó en 2001. Flooz fue otra moneda que nació durante la época de las puntocom y que llegó a su fin tan rápido como apareció, como sucedió también con Internetcash.com. E-gold, una moneda virtual que tenía el respaldo del oro,

127


también fracasó. Todas ellas estuvieron plagadas de casos en que los clientes trataron de utilizarlas para propósitos ilícitos (A.R.Sorkin, 2014). “Revolución o muerte.” Esta es la amenaza de Francisco González, consejero delegado del BBVA. “Los bancos que no estén preparados para nuevos competidores como Google, Facebook o Amazon se enfrentan a una muerte segura”, escribió en el Financial Times. “La tecnología ya ha transformado muchas industrias. La siguiente es la banca”, profetiza González. Y es que las monedas virtuales se están apoderando de internet: además del más conocido Bitcoin, hay karmacoin, dogecoin, luckycoin, stablecoin … incluso pesetacoin. 8.450 millones de dólares circulan en dinero virtual, de los cuales el 76% corresponde a Bitcoin. “La preocupación de los bancos no viene de la pérdida de comisiones –al fin y al cabo, la moneda virtual será siempre una parte mínima del comercio mundial–, el problema es que los poderes establecidos no la controlan. Tampoco les importa que la moneda sea virtual, que los billetes ni se vean ni se toquen”, dice El País. “A los bancos nos interesa que se acabe con el efectivo”, afirma Victoria Matía, directora de banca electrónica de La Caixa. “Es nuestro enemigo porque no sabemos qué hace la gente con él, no nos proporciona información y es ineficiente: lo sacamos del cajero, pagamos en una tienda y el comerciante lo ingresa de nuevo en una oficina bancaria.” (El País, 11/04/2014). Este tipo de negocio no podía sino atraer también la atención de los “grandes” de internet. Así, Google tiene su propio monedero (Wallet) y Facebook estaría planeando integrar en su plataforma un servicio financiero que permita a los usuarios de determinadas regiones almacenar dinero en línea para realizar pagos y transferencias a otros, una copia descarada de PayPal, según informan fuentes del Financial Times (The Next Web, 14/04/2014). Amazon introdujo su propia moneda, llamada Amazon Coin, en los EEUU y el Reino Unido en 2013. Permite comprar aplicaciones y complementos a través del Kindle Fire o con la aplicación de compra Amazon Appstore para Android. Cada coin vale 0,01 euros; el usuario puede comprar la moneda a través de los mismos portales. Ha sido lanzada en España, Francia e Italia en mayo 2014 (El País.es, 13/05/2014)

128


4.5.3. Publicidad

El gasto publicitario en Internet vivió en 2013 un año récord: los anunciantes de EEUU gastaron 42.800 millones de dólares en anuncios online, un 17% más respecto a 2012, según un informe de IAB. Esta cifra supera por primera vez a la inversión publicitaria en televisión para 2013: 40.100 millones de dólares (IAB.net, 10/04/2014). Según estimaciones del grupo comercial Interactive Advertising Bureau, el gasto en publicidad digital - que incluye los medios sociales y los dispositivos móviles - subiría cerca de un 17%, a 50.000 millones de dólares en los EEUU en 2014. Esto sería alrededor del 28% del total de la inversión publicitaria en los Estados Unidos. Hace sólo cinco años, lo digital representaba el 16%. Pero mucha gente en el negocio de la publicidad está preocupada por el aumento del fraude. La firma de detección de ads fraudulentos, White Ops, informó en 2013 que los estafadores habían robado unos 6 mil millones de dólares solamente en los EEUU (The Wall Street Journal, 23/03/2014). Pese a que Google como tal tiene una presencia menor frente a Facebook, en publicidad arrasa gracias al sistema operativo Android de su propiedad y sus herramientas publicitarias, como Adwords. Con el 18% del tiempo empleado de conexión en servicios de Google (navegador y YouTube), se lleva el 49% de toda la publicidad según eMarketer, mientras que Facebook con el 17% del tiempo consigue el 18% (El País, 2/04/2014). En los últimos dos años, Facebook y Google han pasado de ser meramente dos jugadores grandes y de rápido crecimiento en el campo de la publicidad móvil a dominarla por completo. Combinados, han acaparado el 75,2% del total del mercado de telefonía móvil en 2013, según los nuevos datos de eMarketer. En 2014, se espera que Google solo sea más o menos tan grande como el resto de las empresas combinadas, según la siguiente tabla de ingresos de publicidad móvil de Statista:

129


Fuente Business Insider, 20/03/2014

Se espera que el marketing predictivo (basado en los datos recolectados, ver apartado 3.3.4 sobre big data) personalizado utilizando los datos sociales sea una de las áreas de negocio que más se beneficiarán de la minería (análisis) de big data en los próximos años, a pesar de que el 71% de los directores de marketing de todo el mundo dicen que su organización no está preparada para hacer frente a esta explosión de datos en los próximos 3 a 5 años (Business Insider, 12/05/2014). 4.5.4. Mercadeo social

¿Funcionan los anuncios en redes sociales? Social Media Examiner encuestó a principio de 2014 a más de 2.800 vendedores con el objetivo de entender la forma en que son utilizando las redes sociales para promover sus negocios. Un 92% de ellos indican que los medios sociales son importantes para su negocio, superando el 86% del año 2013. Facebook y LinkedIn son las dos redes sociales más 130


importantes para los comercializadores. Cuando se ven obligados a seleccionar una sola plataforma, el 54% selecciona Facebook, seguida de LinkedIn en 17% y Twitter en 12%, pero el 94% utiliza Facebook junto con otra u otras plataformas. Mientras el 54% de los vendedores usan Google+, 65% quieren aprender más sobre él y el 61% planea el aumento de uso de Google+ en 2014 (Datos y gráfico de M. Stelzner, 2014).

“Contar fans y seguidores es cosa del pasado. Ahora lo importante es lo que las redes sociales hacen por ti y los objetivos reales de tu negocio”, dice Jan Rezab, presidente ejecutivo de Socialbakers AS, una empresa de medición de redes sociales con sede en Praga, República Checa. “Las redes sociales no son la fuerza de marketing poderosa y persuasiva que muchas compañías esperaban que fuera”, concluye Gallup Inc., que publicó en junio (2014) un informe que analiza el tema. Gallup señala que el 62% de los más de 18.000 consumidores estadounidenses que encuestó dijo que las redes sociales no tenían ninguna influencia sobre sus decisiones de compra. Otro 30% dijo que tenía cierta influencia. Las compañías estadounidenses gastaron US$ 5.100 millones en publicidad en redes sociales en 131


2013, pero Gallup dice que los “consumidores son expertos en desestimar el contenido relacionado a una marca en Facebook y Twitter” (El Mercurio, 24/06/2014). Ésto no significa que las redes sociales no tengan influencia, como los hemos visto antes (4.5.1): las opiniones de otros compradores puede ser muy poderosa, pero no así la inserción publicitaria del fabricante. Así, por ejemplo, según una encuesta de DigitasLBi, 88% de los españoles buscan un producto en la web antes de comprarlo, 46% mediante su móvil. 35% asegura que, en la tienda, compra más productos que sigue en redes sociales y 45% dicen compartir compras en estas redes (PRnoticias, 20/03/2014).

132


5. Los problemas de la red El creador de la World Wide Web, Sir Tim Berners-Lee, ve con preocupación lo que está sucediendo alrededor de internet con una gran cantidad de iniciativas y múltiples medidas que apuntan a regular la red de parte de gobiernos y grandes empresas, las que - de prosperar - podrían cambiar totalmente la forma original en que la web fue concebida. Consultado por los temas relacionados con los sistemas de captación de datos en línea de Estados Unidos, Berners-Lee aseguró que ahora mismo internet está bajo una gran amenaza de parte de personas que “quieren controlarla a escondidas con leyes preocupantes”, en abierta alusión al proyecto de ley SOPA (Stop Online Privacy Act) de protección de los derechos de autor en la red, a maniobras de espionaje deshonesto y de las grandes empresas de servicios en línea. “Si puedes controlar internet, si puedes comenzar a modificar las cosas que la gente dice, o interceptar comunicaciones, es algo muy, muy poderoso… es la clase de poder que, si se lo dieras a un gobierno corrupto, le permitiría quedarse en el poder para siempre”, enfatizó el prócer de internet. “La vigilancia gubernamental sin justificación es una intromisión en derechos humanos básicos que amenazan elementos fundamentales de una sociedad democrática. Llamo a todos los usuarios de la red a demandar mejor protección legal y garantías de debido proceso para la privacidad en sus comunicaciones online, incluyendo su derecho a ser informado cuando alguien solicite o guarde su información”, concluyó (FayerWayer, 9/06/2013).

5.1. El control de la red Se debe recordar que Internet nació controlada por empresas y universidades contratistas del ejército norteamericano, así como otras agencias estatales de ese país (DARPA, etc.) y que la actividad comercial ingresó a internet en la década de 1990 gracias a acuerdos entre la administración Clinton y grandes empresarios. “Mediante negociaciones destinadas, como mínimo, a facilitar acuerdos de intercambio de tráfico de datos entre organizaciones que operaban en diferentes países y asegurándose de que las agencias encargadas de gestionar 133


recursos críticos de internet (identificadores únicos, incluidos números de sistema autónomo, nombres genéricos, dominios y direcciones de internet) rindieran cuentas solo ante su ejecutivo, el Gobierno de Estados Unidos ayudó a establecer una internet centralizada dentro de sus fronteras territoriales.” (Schiller, p.274) El poder de Estados Unidos se demuestra principalmente a través de los organismos que “coordinan” la red: ICANN, IETF, etc. Aunque ICANN (Internet Corporation for Assigned Names and Numbers) es un contratista sin ánimo de lucro, está vinculado por medio de contratos legales con el Departamento de Comercio y mantiene el control real de internet fuera del alcance de las instituciones multilaterales. “Una fachada similar oscurece las actividades de la Fuerza de Tareas de Ingeniería de Internet (Internet Engineering Task Force, IETF), una organización independiente encargada de desarrollar arquitecturas de internet e ingeniería de sistemas que no tiene ninguna dependencia formal de las autoridades de Estados Unidos. Las operaciones de la IETF se parapetan tras el argumento ideológico de la neutralidad de la tecnocracia, supuestamente no sujeta a intereses estatales ni corporativos. Sin embargo, en su plantilla hay un número desproporcionado de empleados de empresas y agencias estatales de Estados Unidos. […] Según datos de 2007, el 71% de los 120 grupos de trabajo especializados, cuya tarea es mejorar la tecnología de internet, están presididos por estadounidenses, mientras que los representantes de países en vías de desarrollo constituyen un mero 6% del total.” (Schiller, p.275) Alianzas como la Business Software Alliance y la Computer & Communications Industry Association defienden el concepto de libre flujo de la información pero claramente para su propio beneficio por cuanto “cuando hablamos de flujo libre global de información en internet, están en juego billones de dólares de actividad económica estadounidense”. La compañía Verizon, presente en 159 países, también abogaba por que “el Gobierno de Estados Unidos en sus contactos internacionales debe seguir promoviendo una internet única, global e interoperativa que esté libre de restricciones gubernamentales que coarten la capacidad del 134


consumidor informado de impulsar el desarrollo continuo de servicios y contenidos”, pero se trata para ella de defender los “miles de millones de dólares” invertidos en el suministro global de servicios IP (Schiller, pp.277 y 278). En la cumbre mundial sobre la Sociedad de la Información, organizada por la Unión Internacional de Telecomunicaciones (UIT), en sus dos fases, de 2003 en Ginebra y 2005 en Túnez, el descontento de los demás países se materializó en iniciativas que se estrellaron contra la actitud recalcitrante de Estados Unidos. En 2012, en otra conferencia de la UIT - que la delegación de Estados Unidos abandonó - la exigencia de materializar el gobierno multilateral de internet pasó a ser la posición mayoritaria. En la cumbre NETMundial de 2014, en Brasil, Vladimir Putin recordó que internet seguía controlada por Estados Unidos y los temas de la privacidad y neutralidad de la red fueron de los puntos más polémicos como consecuencia de las revelaciones del espionaje internacional norteamericano hechas por Edward Snowden (BBC, 25/04/2014). Brasil y Alemania se plantearon organizar una red de alcance nacional y solicitar a las grandes empresas mantener en el país los datos de sus residentes, para que no pasen por las redes y los servidores norteamericanos. Brasil, Rusia y China ya habían pedido que Estados Unidos dejase de controlar la asignación de las direcciones de los protocolos de comunicación (IP), a cargo de ICANN. A fines de 2013, el presidente y CEO de ICANN, Fadi Chehade, durante una conferencia de prensa en una reunión de ICANN en Buenos Aires, anunció finalmente que consideraba que un modelo de gobierno de Internet en que empresas y grupos de la sociedad civil participen en el proceso de toma de decisiones sería la mejor opción, a pesar de la presión de algunos países para un modelo de gobierno más centralizado (PC World, 20/11/2013). Finalmente, el 14 de marzo de 2014, la Administración Nacional de Telecomunicaciones e Información (NTIA) anunció su intención de hacer la transición de la conducción de la Internet Assigned Numbers Authority (IANA) a la comunidad multisectorial global. La NTIA pidió a la Corporación de Asignación de Nombres y Números de Internet (ICANN), como contratista y coordinador mundial del sistema de administración de nombre (Domain Name System, DNS), que convocase a un 135


proceso involucrando las múltiples partes interesadas para desarrollar una propuesta para la transición. La NTIA estableció al mismo tiempo un marco para guiar la discusión y comunicó a la ICANN que la propuesta de transición debe tener un amplio apoyo comunitario y abordar los cuatro principios siguientes: • apoyar y mejorar el modelo de múltiples partes interesadas; • mantener la seguridad, estabilidad y flexibilidad del DNS de Internet; • satisfacer las necesidades y expectativas de los clientes y los socios de los mundiales de los servicios de IANA; y, • mantener el carácter abierto de Internet. (Icann.org, 6/06/2014) El poder también reside en las grandes empresas (comerciales) que dominan la red. “La mayor parte de la inversión en sistemas y servicios de internet es corporativa. Y lo mismo se puede decir del mercado de la informática y las comunicaciones, donde, según algunas estimaciones, la parte correspondiente al consumidor supone apenas un tercio de un mercado global que puede alcanzar los 4,5 billones de dólares” (Dan Schiller, p.263). Desde mediados de la década de 1990, la actividad comercial ingresó a internet y empresas de todo tipo y de todos los países ajustaron sus redes (en el caso de las telecom) e instalaron sus servidores para ofrecer contenidos o manejar datos. “Las empresas hicieron gala de un apetito en apariencia insaciable de sistemas y servicios de internet” y “la funcionalidad de internet ha sido absorbida por el tejido empresarial en su totalidad” dice Schiller (ibidem). “Los proveedores transnacionales de servicios de internet se han consolidado en tres segmentos primordiales. Los gigantes de la red, como Telefónica, Verizon, Deutsche Telekom, China Mobile y América Móvil, conforman uno de ellos. Comcast, Time-Warner, Disney y otros conglomerados multimedia que poseen un gran patrimonio de programas y decenas de miles de copyrights encabezan el segundo segmento. El tercero se compone de un puñado de grandes y dinámicos intermediarios de internet, como Google, Apple o Alibaba.” (ibidem, p.270) El sector de las finanzas también ha sido uno de los que han hecho las mayores inversiones. Y ha presionado a las compañías de telecomunicaciones porque “solo

136


con reducir en unos milisegundos la conectividad entre dos centros de comercio pueden ganar millones de dólares al año. Así que están dispuestos a pagar un poco más por la ruta más rápida” (palabras de Tim Stronge, vicepresidente de investigación de TeleGeography, en el texto de Schiller, p.267). El dominio de las empresas norteamericanas es tal que “Estados Unidos percibe más del 30 % de los beneficios globales en internet y más del 40 % del ingreso neto” (Negroponte y Palmisano, 2013, citado por Schiller, p.273).

Manifiesto para impulsar la libertad digital Mikko Hyppönen, Director de Investigaciones de F-Secure y David Hasselhoff, Embajador de F-Secure Freedome, dieron inicio al movimiento de la libertad digital en la conferencia Re:publica Technology en Berlín, Alemania, de 2014. El movimiento y el manifiesto tienen cuatro puntos para la libertad digital: 1) Libertad de la vigilancia de masas El teléfono celular e Internet, dos grandes innovaciones de nuestro tiempo, han sido víctimas de herramientas de vigilancia para ser utilizados en contra de nosotros. El problema con programas como PRISM, es que espían no sólo a las personas que son sospechosas de realizar crímenes, sino también a inocentes que no saben que están siendo observadas por el gobierno. 2) Libertad de la persecución digital Puedes pensar que no tienes nada que ocultar ahora. Sin embargo, ¿cómo sabes que las cosas no cambiarán con el tiempo? En la actualidad es más barato conservar los datos que destruirlos. Entonces, ¿qué puede ocurrir si una actividad que has tenido en la red, es usada contra ti en el futuro? Ningún ciudadano que respete la ley debería vivir con ese miedo. 3) Libertad de la colonización digital Las tecnologías están cambiando de una forma radical nuestro mundo a una velocidad asombrosa. Pero esto no significa que tengamos que aceptar todos estos cambios en nuestras vidas por la tecnología. 4) Libertad al acceso digital, discusión y movimiento 137


Lo que decimos y escribimos en privado, debe permanecer en privado y no debe ser de interés de ningún gobierno. Debemos luchar por la libertad de acceso a las plataformas, movimiento y libertad de discurso. (DiarioTI, 29/07/2014).

5.2. Neutralidad 5.2.1. Posición de los gobiernos

El Parlamento Europeo ha aprobado la iniciativa “Connected Continent”, la cual garantiza la neutralidad en la red y prohibe el roaming dentro de la región. La enmienda más importante introducida en la iniciativa es la 234, que indica que “Neutralidad en la red es el principio en el cual todo el tráfico de internet debe ser tratado de la misma manera, sin discriminación, restricción o interferencia, independientemente de quién lo envía, quien lo recibe, el tipo, contenido, servicio o aplicación” (Alt1040, 3/04/2014). El 12 de mayo 2014, los ministros de Exteriores de la Unión Europea (UE) pidieron además que los derechos y libertades como los de expresión y opinión se respeten también en internet y en los nuevos medios de comunicación. “Todos los derechos humanos que existen offline deben también estar protegidos online, en particular el derecho a la libertad de opinión y expresión”, señalaron los ministros en un texto de conclusiones aprobado en su reunión en Bruselas (El Mundo.es, 12/05/2014). Mientras la UE busca asegurar la neutralidad de la red, en los Estados Unidos, tras un primer intento, se volvió al planteamiento de permitir a las empresas promocionar sus servicios ante los proveedores de internet (ISP) para que tengan prioridad en el tráfico. Aunque la Federal Communications Commission (FCC) pretende tener el objetivo de asegurar una internet abierta y libre - que ningún operador pueda bloquear el acceso de los ciudadanos a ningún contenido online también propuso formalmente en mayo 2014 permitir a los ISP el otorgar un ancho de banda mayor a las compañías emisoras que deseen pagar por ello, para que sus contenidos y servicios “lleguen de la mejor manera” a los usuarios que tengan contratados servicios con ellos. De este modo surgiría una Internet con “dos

138


velocidades”. Aunque la FCC promete también implementar mecanismos para evitar una discriminación de aquellos que no puedan pagar por el ancho de banda no se ve cómo se aplicarían aunque, visto el aumento en el uso de internet en el móvil, podría considerar si deben aplicar las mismas reglas que para el acceso a internet por cable y por WiFi (Reuters, 16/06/2014). El presidente de la FCC, Tom Wheeler, negó que la propuesta presentada beneficie a determinadas empresas y aseguró que “la velocidad y la calidad de la conexión que los usuarios pagan no se debe ver afectada” (El Mundo.es, 16/05/2014). El resultado para el consumidor de EEUU sería una conexión a internet en casa en la que tendría prioridad aquellos servicios o empresas que hayan pagado más (o llegado a acuerdos) con sus proveedores, postergando los servicios que no puedan pagar las tarifas más altas (Xataka, 24/04/2014). No se trataba de una norma definitiva sino de una propuesta y la autoridad recibiría hasta julio comentarios sobre ella para luego tomar una decisión definitiva. Se visualizaba una intensa batalla entre algunas empresas tecnológicas y los defensores del consumidor. Más de 150 empresas se han aliado para pedir un cambio de esta ordenanza (ver apartado siguiente). La propia Casa Blanca emitió un comunicado en el que afirmaba que el presidente Obama mantenía su defensa de la neutralidad en Internet. La norma “será un desastre para las empresas emergentes y los usuarios cotidianos que no pueden permitirse estos peajes innecesarios”, afirmó Craig Aaron, presidente del grupo Free Press. Un factor clave que impera en las decisiones de la FCC es que, legalmente, internet no clasifica actualmente como servicio público, y los proveedores (ISP) se oponen enérgicamente a la idea de un cambio, que implicaría una mayor regulación, porque creen que perjudicaría la inversión y la innovación (El País.es, 12/05/2014). 5.2.2. Discusión mundial

En abril 2014 tuvo lugar en Sao Paulo la cumbre de internet, NETMundial. En la inauguración de este foro, la presidenta brasileña, Dilma Rousseff, afirmó que ningún país puede tener “más peso que otro” en la gobernanza de Internet y defendió que 139


debe basarse en el respeto de los “derechos humanos”, la “privacidad” y la “libertad de expresión” (El País.es, 23/04/2014). El Ministro de Comunicaciones de ese país, Paulo Bernardo Silva, también anunció ahí que Brasil liderará un movimiento internacional de regulación de internet - basado en el principio de la neutralidad - entre los países del Mercado Común del Sur (Mercosur), la Comunidad de Estados Latinoamericanos y del Caribe (Celac), los BRICS (grupo Brasil, Rusia, India, China y Sudáfrica) y algunas naciones africanas (Diario TI 24/04/14). Desde el 23 de junio 2014, los proveedores de internet de Brasil están obligados a respetar la inviolabilidad de las comunicaciones de los usuarios y tienen prohibido vender a terceros sus datos personales y los registros de acceso, salvo que el consumidor lo autorice. La nueva legislación también impone la neutralidad de las redes, asegurando que los usuarios puedan acceder a cualquier contenido de internet a una misma velocidad y calidad, sin que las empresas proveedoras puedan interferir en esas características (Clases de Periodismo, 23/06/2014). El mencionado foro internacional concluyó que el monitoreo de la información personal debería ser considerado un delito, aunque Rusia, Cuba e India expresaron su disconformidad con las conclusiones. Rusia dijo que internet erosiona los principios de la soberanía nacional y Vladimir Putin afirmó que internet fue originalmente desarrollado por la CIA y que seguía controlado por Estados Unidos (BBC, 25/04/2014). La neutralidad de la red fue uno de los puntos más polémicos. Para evitar mayor controversia, la resolución final del encuentro evitó incluir el término “neutralidad”, optando por decir que internet deberá “continuar abierta independientemente de la naturaleza del contenido”. Quedaron así 5 factores que deberían respetar todos los países y empresas: 1 – Mantener la red como un lugar propicio a la innovación y a la creatividad, fundamentos responsables por nuevos servicios online. 2 – Promover una mejor gestión de Internet, para que gobiernos, entidades de la sociedad civil y especialistas técnicos participen con decisiones más transparentes, colaborativas y justas. 3 – Pensar de que forma internet debe promover derechos humanos como la libertad de expresión y de asociación, la privacidad y el acceso a la información. 140


4 – Diseminar patrones técnicos y arquitecturas de red abiertas y distribuidas, para no restringir la elaboración de nuevas herramientas a grupos específicos. 5 – Crear etapas de desarrollo de los puntos discutidos sobre la gestión de internet y de los próximos pasos (O Globo, 24/04/2014). La llamada Declaración de Sao Paulo, documento final de 10 páginas, “es un pálido reflejo de la que para muchos era una cumbre histórica, celebrada en un país —Brasil— que acababa de aprobar la primera Constitución de Internet” dijo El País.es (25/04/2014). “Los lobbies de las empresas de telecomunicaciones dominaron y presionaron durante los debates finales y consiguieron debilitar el texto y sacar la palabra neutralidad de la redacción”, dijo Sergio Amadeus, sociólogo que participó en la redacción del Marco Civil brasileño, aunque Vinton Cerf saludó la cumbre como “un gran logro y un paso adelante en la gobernanza global de la Red” (ibidem). 5.2.3. Posición de las empresas

Frente a la posición asumida por la FCC en los Estados Unidos, Mozilla propuso a este organismo que el hecho de conectar un proveedor de servicio con la red de un ISP sea considerado también servicio de telecomunicaciones como tal, y que esté sujeto al título II del Acta de Comunicaciones. Según Mozilla esta medida “daría a la FCC margen de maniobra para adoptar y proteger la neutralidad de la red de verdad”, y que con unas reglas claras y efectivas los ISP no se verían tentados con priorizar un tráfico por delante de otro (Genbeta, 6/05/2014). Más de 150 empresas de internet, de los gigantes Google, Facebook, Amazon, eBay, Microsoft, Dropbox, Linkedin, a los pequeños Flurry o BitTorrent, han firmado una solicitud parecida destinada a la FCC para pedirle que mantenga el principio de neutralidad de la red, argumentando que las innovaciones en internet “han creado un enorme valor para los internautas, han impulsado el crecimiento económico y han convertido a nuestras empresas en líderes mundiales”. Si la FCC permite a los proveedores de telefonía y servicios de internet por cable discriminar tanto técnica como financieramente a las empresas, esto “representaría una grave amenaza a internet”, dicen. “En lugar de permitir la negociación individualizada y la discriminación, las normas de la Comisión deben proteger a los usuarios y a las empresas de internet -en plataformas fijas y móviles- contra el bloqueo, la 141


discriminación y el pago de la priorización, y deben hacer el mercado de los servicios de internet más transparente”, señalaron. Aunque Netflix firmó un acuerdo preferencial con las empresas de cable Comcast y Verizon, también firmó esta carta (El País.es, 8/05/2014). Comcast, por su parte, reconoció haber gastado 20 millones de dólares en lobby en campañas para desacreditar la neutralidad que la FCC quiere implementar (El Mundo de la Tarde, 10/06/2014). Por su parte, en España, Telefónica - presente en 24 países iberoamericanos publicó un “Manifiesto Digital por una Internet abierta y segura para todos”. Aprovechó la oportunidad para atacar a las aplicaciones de mensajería basadas en internet - un negocio que se le escapa -, criticando lo que llama una falta de interoperabilidad entre ellas. También se inclina por impulsar cambios que permitan diversificar la oferta comercial aún en contra de la neutralidad de la red que, al mismo tiempo, pretende respaldar diciendo “apoyar los principios de neutralidad de la red que otorgan a los usuarios el derecho a un acceso abierto y libre de restricciones y discriminaciones a los contenidos, aplicaciones y servicios de internet para que ellos mismos decidan”. Pero se pronuncia también por la aparición de nuevos modelos de negocio que se basen en diferenciación por QoS (Quality of Service), que implican sumar ofertas diferenciadas por aplicación, como las que ya se implementan en Argentina, Ecuador y México, donde el acceso a redes sociales se ofrece a costos reducidos o inexistentes (FayerWayer, 30/04/2014). Y es que hay un problema anexo, que parece de difícil solución: las empresas de cable y de teléfonos tienen generalmente otros servicios que pueden competir con los de internet (p.ej. de TV-cable). Entonces, puede ser difícil que traten de igual forma a todos los paquetes de datos que pasan por su red y sería normal ofrecer “paquetes premium” con privilegios para ciertos tipos de contenido, lo cual defienden. En Brasil, el Congreso aprobó una ley conocida como Marco Civil de Internet, que consagra el principio de la neutralidad de la red como ya había hecho Chile hace cuatro años y Holanda hace dos, y estableció reglas para preservar la privacidad de los usuarios. En lo que respecta a la neutralidad, la ley señala que las compañías no podrán limitar el acceso de los usuarios a determinados contenidos o cobrar precios 142


diferentes para cada tipo de servicio prestado. En relación a la privacidad, la ley establece que las comunicaciones en internet son inviolables, y también obliga a las compañías a que informen de forma clara a los usuarios sobre el uso y el almacenamiento de sus datos privados, cuya venta o cesión a terceros fue expresamente prohibida (El Mundo, 23/04/2014). En febrero 2014, Netflix dio a conocer un acuerdo con la operadora estadounidense Comcast “para ofrecer un mejor servicio a sus clientes”, lo cual implica priorizar el tráfico de Netflix, asegurándole el ancho de banda necesario para un servicio óptimo, en desmedro de los demás contenidos. Comcast fue la primera en “hacer caja” y el resto de las operadoras estadounidenses podrían seguir este movimiento dado el escaso control que la FCC puede ejercer en materia de neutralidad. Como consecuencia, la velocidad de descarga de Netflix mejoró sustancialmente en comparación con los otros ISP. El gráfico adjunto muestra la evolución de la velocidad de descarga de Netflix en Comcast y otros portadores desde principio de 2013 (Genbeta, 6/05/2014)

143


En los casos de AT&T y Verizon podemos ver como esas velocidades continúan cayendo en picado, perjudicando principalmente a los usuarios actuales de Netflix. ¿Qué solución tiene entonces la empresa? Pagar al resto de las operadoras para que éstas también prioricen su tráfico y los usuarios puedan disfrutar de sus películas y series sin cortes. Verizon, por ejemplo, ya lo ha hecho. Al final lo que este tipo de acuerdo provoca es una desigualdad de condiciones de uso según el ISP del usuario (Genbeta, 6/05/2014).

5.3. Privacidad El acceso a los datos privados es otro de los grandes temas, puesto en evidencia sobre todo por las redes sociales, pero también denunciado por agentes de servicios gubernamentales como Edward Snowden. Existen múltiples razones por las que los gobiernos quieren una internet controlada: la lucha contra el crimen, el control de la información (y, así, de la opinión pública), la “protección” de los derechos de autor y la “seguridad nacional”, principal argumento de los Estados Unidos, utilizado especialmente después del ataque a la Torres Gemelas de Nueva York. 5.3.1. Un cambio de límites voluntario

Pero, fuera de los accesos indebidos -de los que hablaremos en los apartados siguientes- debemos considerar primero la cesión voluntaria de datos personales, que está demostrando un cambio significativo en los conceptos de privacidad e intimidad. La nueva intimidad tiene que ver con el contexto, explica Fatemeh Khatibloo, analista senior de Forrester. La gente confía en Amazon al darle su domicilio y los datos de su tarjeta de crédito y obtener algunas recomendaciones específicas, pero no confia en ella como para darle datos acerca de su salud. “La privacidad debe equilibrar el deseo del consumidor con la necesidad de la organización”, dice. “La privacidad debe ser redefinida para dar cabida a los teléfonos inteligentes, sensores biométricos, geolocalización, datos grandes e identificación.” La privacidad ha de considerarse en función de cinco aspectos: ● temporal: cuando pueden ser recogidos los datos y cuando pueden ser usados; ● espacial: donde pueden ser usados;

144


● funcional: como pueden ser recogidos y usados; ● de identidad: que personas están involucradas en la relación; ● social: con quienes puede ser compartida la información (Tierney, 2014). El debate de fondo es sobre la cantidad de poder que tenemos para controlar el flujo de información sobre nosotros mismos. Si el anonimato y el “control” significa dar a las personas el derecho a ocultar lo que quieran, entonces tenemos una batalla cuesta arriba y puede ser demasiado tarde, estima David Hodgson, de Computer Associates. Si vamos a abrazar la transparencia y aseguramos una transparencia total en ambos sentidos, entonces podríamos ser capaces de lograrlo. Esto significa aceptar que nuestras vidas están al descubierto, pero exigiendo que todos los usos de los datos también estén al descubierto y que todos se beneficien de la utilización de sus datos. Aunque para muchos esta idea parezca desagradable, es posible que sea la única manera de asegurarnos de que nos movemos hacia un futuro en el que no se explote la persona (Hodgson, 2014). Aunque solo el 27% de los usuarios dice estar dispuesto a sacrificar privacidad para obtener una mayor facilidad y comodidad en línea, la mayoría no toma medidas especiales para protegerla y creen que la responsabilidad es de los proveedores, según un estudio de EMC realizado en 15 países. Mientras el 73 por ciento de los usuarios no quiere sacrificar su privacidad a cambio de más beneficios de la red, un 62 por ciento, sin embargo, no hace algo tan básico como cambiar sus contraseñas; 4 de cada 10 no personaliza su configuración de privacidad en las redes sociales, y el 39 por ciento no emplea protección mediante contraseña en sus dispositivos móviles. Y sólo el 54 por ciento dice estar dispuesto a renunciar a algo de su intimidad para protegerse de actos terroristas y/o delictivos (PC World, 17/06/2014). Aquí hay, en gran medida, un cambio generacional: los menores de 30 años tienen un concepto de la privacidad muy diferente de sus mayores. Comparten a diario sus pensamientos, sus actividades y autofotos (selfies) en Instagram, Twitter y Facebook. Sin embargo se ha abierto camino una mayor tendencia a la protección, demostrada por el éxito de apps como Snapchat, que permite enviar mensajes de texto con caducidad, que se convirtió en la sexta del ranking de mayores descargas en al App Store en 2013. Se calcula que sus usuarios envían más de 350 millones 145


de imágenes cada mes, un impacto tal que Facebook ofreció -inútilmentecomprarla por 3.000 millones de dólares (ABC, 17/02/2014). Un estudio realizado entre la población británica realizada por la Universidad de Oxford demuestra que, al menos en dicho país, los jóvenes vigilan más su privacidad online que los usuarios más maduros. El porcentaje de usuarios de entre 14 y 17 años encuestados que han modificado o revisado su configuración de privacidad online es del 95%. En los jóvenes de 18 a 24 años desciende hasta un 77%; en los de entre 25 y 34, al 67%; en los de 35-44, al 71,3%; y así, progresivamente, hasta situarse en el 32,5% de usuarios con más de 65 años que alguna vez han comprobado el estado de su privacidad en redes sociales. De este modo, la media de edad de aquellos usuarios que sí comprueban y revisan la configuración de privacidad de sus perfiles en las redes sociales es de 26 años, mientras que la de los que no lo hacen es de 43 (TICbeat, 27/05/2014). Además, Facebook es percibida ahora por los jóvenes de la “Generación Y” como una red invasiva, que no para de enviar estímulos a sus usuarios, que no genera una interacción social verdadera o completa con los individuos que les importan de verdad y que, además, expone su vida ante personas por las que no quieren ser observados, por lo que están emigrando a otros sistemas menos invasivos (TICbeat, 18/12/2013). A los niños, que desde muy pequeños acceden hoy a las pantallas interactivas, es necesario explicar de que se trata y cuales son los peligros y límites a los cuales se enfrentan. “En una época donde nuestras vidas están grabadas y analizadas por una cantidad incontable de servicios, organizaciones y el Estado, educar a los jóvenes sobre la importancia de la privacidad y considerar qué información deben compartir debería estar bien arriba en la agenda”, afirma la vicedirectora del organismo pro derechos civiles Big Brother Watch, Emma Carr. “Es importante educar a los chicos sobre cómo se accede a nuestras comunicaciones y las ramificaciones que esto tiene”, asegura (BBC Mundo, 23/06/2014). Pero, ¿quiénes nos espían, con qué derecho y con qué nivel de transparencia? Tenemos esencialmente dos “observadores”: las agencias gubernamentales de espionaje y las empresas comerciales.

146


5.3.2. ¿El “Gran Hermano” al acecho?

Tanto la revista Wired como Hispasec publicaron ya en enero de 2003 sendas advertencias acerca del enorme potencial que ofrecen los sistemas inalámbricos para el espionaje, incluyendo los teclados inalámbricos, que utilizan frecuencias de radio, lo cual significa que, potencialmente, cualquier pulsación de teclado puede ser interceptada por terceros. Pero las conexiones WiFi y la telefonía móvil son muchísimo más vulnerables y sus potencialidades van creciendo con la incorporación de cámaras digitales y sistemas de localización GPRS en los teléfonos. Las redes inalámbricas constituyen una infraestructura perfecta para que terceros capten información en cualquier lugar del planeta. Cámaras web inalámbricas, algunas bien escondidas, pueden colocarse en cualquier parte y espiar para bien o para mal. Los teléfonos con cámara también pueden revolucionar la forma en que se obtienen las noticias: cualquiera puede ser testigo de un hecho y enviar al instante la información en forma audiovisual a un medio o una agencia de información (o de “inteligencia”). Para el afectado, destruir fotos “indeseables” subidas por terceros resulta casi imposible. La precisión en la ubicación de los portadores de móviles también se transforma en información que puede ser altamente significativa para diversos propósitos, desde la publicidad personalizada y “ambientalizada” hasta el control de los desplazamientos por agencias de seguridad. Grandes bases de datos podrían registrar todos los desplazamientos de cualquier ciudadano y lo que hace con dicho aparato (p. ej. si hace compras, dónde, de qué tipo de producto, etc.). Éste es el “lado oscuro” de la telefonía móvil, del cual pocos hablan (cfr. Lauren Weinstein, Wired, 6/01/2002). Las herramientas para espiar a los ciudadanos que utilizan las telecomunicaciones se han desarrollado a la par de los medios que les da acceso a la información o mejora sus comunicaciones. Existen empresas, como la italiana Hacking Team, que han desarrollado “soluciones” supuestamente legales que permitirían controlar desde llamadas telefónicas hasta mensajes de Viber, Whatsapp o Skype. “La víctima no tiene casi posibilidades de saber si está infectado”, advirtió Sergey Golovanov, analista de Kaspersky (ABC.es, 7/07/2014). Algunas de estas herramientas se utilizan con fines comerciales pero, en el caso de las

147


multinacionales, en muchos casos los datos recabados terminen también en las bases de datos de los organismos de seguridad de los Estados Unidos. Esto no responde solamente a la reciente ola de preocupación por el terrorismo, sino a la constante política hegemónica nacida ya en los años de la independencia de ese país. Paladín de las “libertades civiles”, los Estados Unidos resultan ser a la vez el primer infractor de sus propios principios y se encuentra entrampado en una doble actitud: pretende proteger y favorecer las comunicaciones mientras interviene las transmisiones y recaba datos privados -sea por sus propios medios, sea a través de empresas multinacionales- bajo el pretexto de la seguridad nacional. Los atentados del 11 de septiembre de 2001 los llevaron a definir una nueva política de seguridad que puso en entredicho la privacidad de las comunicaciones. La iniciativa más destacada del gobierno norteamericano de la época ha sido el TIA, “Total Information Awareness system”. Se trata de un sistema de almacenamiento ultraamplio de todo tipo de información, que efectua un seguimiento de todas las actividades de los ciudadanos, desde su navegación por internet hasta sus consultas médicas, sus viajes, sus estudios, etc. Como Sauron (en El Señor de los Anillos), “lo ve todo desde su fortaleza”, dice Lee Tien, un abogado del equipo de la fundación Electronic Frontier. En noviembre 2002, Bush firmó el “Homeland Security Act” (HSA), que creó el nuevo “Departamento de Seguridad de la Patria” y alentó a los proveedores de Internet a enviar a los organismos de seguridad cualquier e-mail que les pareciera sospechoso, algo sin duda vinculado al famoso programa “Carnivore” del FBI destinado a espiar los intercambios de e-mails (buscando en ellos ciertas palabras claves), el cual - siendo anterior al 11-S - no había sido muy efectivo en la detección de los propósitos terroristas. Nuevos instructivos del entonces Secretario de Justicia, John Ashcroft, permitían a sus fuerzas de seguridad penetrar en todas las bases de datos comerciales aún sin que mediara la sospecha de actividad criminal, lo cual contraviene claramente las garantías constitucionales y así pareció entenderlo una Corte Federal que suspendió la medida.

148


Posteriormente diversos proyectos de ley fueron presentados, como los proyectos de ley “Stop Online Piracy Act” (SOPA) y “Protect IP Act” (PIPA) presentados al Congreso en 2011 y pospuestos en 2012, que le permitirían al Departamento de Justicia solicitar una orden judicial que exija a los proveedores de internet de EEUU bloquear el acceso a sitios web domiciliados fuera del país que venden películas, música y otros productos pirateados. El objetivo de SOPA y PIPA era aparentemente bastante legítimo: se trataba de combatir a los violadores de derechos de autor y falsificadores que administran sitios fuera del alcance de la jurisdicción de las cortes estadounidenses. El problema era el método utilizado. Estas leyes le darían al Fiscal General el poder de obligar a miles de proveedores de internet a bloquear supuestos sitios ilegales, forzando a los buscadores a editar sus resultados y requiriendo que las redes de publicidad y los procesadores de pagos cortasen su relación con estos sitios. Pero existen varias herramientas de evasión y aplicar esta ley habría sido caro e inútil, con indeseables efectos como desalentar la innovación, interferir con la expresión legal protegida por la Primera Enmienda de la Constitución estadounidense y la funcionalidad del internet (El Mercurio, 19/01/2012). Este proyecto antipiratería sufrió el revés de una movilización sin precedentes en la Red ante esta amenaza de aumentar dramáticamente el control -tanto del Gobierno como de las corporaciones- sobre internet. La ‘ciberseguridad’ ha sido la bandera enarbolada por muchos gobiernos occidentales para plantear actualizaciones y nuevas normativas encaminadas a vigilar más de cerca la Red. Así, el Gobierno Británico, preocupado por las crecientes amenazas cibernéticas, anunció una ley para monitorizar internet, las llamadas telefónicas, los correos electrónicos, los mensajes en las redes sociales y las visitas a sitios web, un paso “necesario” según el Ejecutivo. Incluso Francia quería ir más allá en la monitorización de la Red con la excusa de prevenir atentados terroristas. Así, en plena campaña electoral, el presidente francés, Nicolas Sarkozy, anunció un endurecimiento de la legislación francesa que recogería, entre otras medidas, castigos por la mera consulta de páginas web que inciten al terrorismo (El Mercurio, 14/01/2012). Ésto era lo sabido hasta que, en 2013, se conocieron las revelaciones de Edward Snowden sobre las operaciones secretas de la Agencia Nacional de Seguridad 149


(NSA). En un artículo publicado en el diario británico The Guardian -y firmado por el columnista, periodista y experto en seguridad Glenn Greenwald- se revelaron documentos secretos de la NSA en los que se detallaban las herramientas que usaban los analistas de esa agencia para acceder a enormes bases de datos que contienen correos electrónicos. El periódico The Washington Post, que también tuvo acceso a las revelaciones de Snowden, ha revelado que la NSA y el FBI espiaban a los ciudadanos norteamericanos en la red gracias a un programa secreto cuyo nombre en clave es PRISM. Aunque la NSA negó que E.Snowden pudiera haber tenido acceso a contenidos interceptados por su espionaje, el Washington Post obtuvo un archivo de 22.000 informes de intercepción por la NSA que contienen 160.000 interceptaciones individuales. El diario verificó que el 11% de éstos correspondían a “objetivos” prefijados mientras el 89% restante correspondía a “recolecciones accidentales”. La base de datos norteamericana de sospechosos de terrorismo (Terrorist Screening Database) ha crecido de 227.932 nombres en 2009 al actual 1,5 millón según la Associates Press (Yahoo News,18/07/2014). La NSA contaría además con el permiso expreso de 193 países, incluido España, para monitorizar a ciudadanos de todo el mundo (Washington Post, 5/07/2014). Y los investigadores de Kaspersky Lab y Citizen Lab han detectado más de 320 servidores utilizados para dar soporte a técnicas de vigilancia, la mayoría de ellos en EEUU, Kazajistán, Ecuador, Gran Bretaña y China (ABC.es, 7/07/2014).

150


Las dos agencias de seguridad, NSA y FBI, rastreaban millones de conversaciones, correos electrónicos, fotografías, transacciones con tarjetas de crédito y todo tipo de información personal directamente desde los servidores de nueve de las principales compañías de internet en los EEUU y de grandes compañías de comunicaciones, como Microsoft, Google, Facebook, Skype y Verizon. El documento recibido por los diarios explica que la obtención de datos se realizaba directamente desde los servidores centrales de las compañías proveedoras de servicios en los EEUU, pero la CNBC, Apple, Google, Skype, Facebook, Microsoft, YouTube, Yahoo y otros medios han negado las acusaciones. También James R. Clapper, director de Inteligencia Nacional de EEUU negó que el programa PRISM espíe a ciudadanos nacionales (pero no aclaró qué ocurre con ciudadanos de otros países) y aseguró que las informaciones del Post y The Guardian son incorrectas (Gizmodo, 7/06/2013).

151


Según el Spiegel Online, la agencia de inteligencia estadounidense lleva tiempo monitorizando las transferencias económicas a nivel internacional, gracias a una división específica llamada “Follow the Money” (“Sigue el dinero”) encargada de esta tarea. Esta información se recolecta y se almacena en una base de datos específica, denominada Tracfin, que en 2011 contenía 180 millones de registros y en la que según los datos revelados el 84% de las transacciones correspondían a pagos realizados con tarjeta de crédito (Xacata, 16/09/2013). The Guardian compartió capturas de pantalla del sistema usado por la NSA, denominado “Boundless Informant”, que muestran la interfaz que vería cualquier persona que tuviera acceso a esta herramienta que despliega un mapa plano del mundo con países pintados con colores que denotan la cantidad de información captada. Va desde el color verde, para países poco monitoreados; luego pasa a amarillo, naranja y rojo (imagen anexa, The Guardian, 11/06/2013). Así muestra la cantidad de datos recolectados en diversos territorios, denotando el nivel de intervención en cada país, con el rojo como el color que señala la captación de la mayor cantidad de datos. Las imágenes compartidas por el diario inglés muestran que existen 3.000 millones de datos tomados en 30 días en los propios EEUU.

La NSA llegó a espiar hasta 38 embajadas de países aliados, desde Francia e Italia a Japón, México o Corea del Sur e incluso a mandatarios de países amigos, como Angela Merkel, de Alemania, y Dilma Rousseff, de Brasil, lo cual provocó un 152


escándalo que afectó las relaciones diplomáticas y llevó a estos gobiernos a estudiar la posibilidad de bloquear sus fronteras electrónicas. A modo de explicación, el General Keith Alexander, director de la NSA aseguró ante el Congreso de Estados Unidos que “más de 50” posibles amenazas terroristas fueron detenidas gracias al programa de vigilancia PRISM, después del 11 de septiembre de 2001, precisando que las amenazas detenidas ocurrieron a nivel mundial, y no sólo en los Estados Unidos (FayerWayer, 18/06/2013). La compañía de telecomunicaciones británica Vodafone ha revelado en un informe que en seis de los 27 países en los que opera los gobiernos han tenido acceso directo a datos almacenados en sus redes (El Mundo.es, 6/06/2014). Documentos liberados junto con el libro de la periodista de seguridad Glenn Greenwald titulado “No Place To Hide”, revelaron que la NSA se asoció con el FBI para desarrollar técnicas destinadas a explotar los chats de Facebook, capturando ahí fotos privadas, direcciones IP y datos de perfiles privados. Los documentos filtrados muestran cómo las agencias recogían información “mediante la explotación de las debilidades inherentes en el modelo de seguridad de Facebook” a través de Akamai y el sistema de entrega de contenidos. La NSA describió sus métodos como “autenticación asumida” (assumed authentication) y “seguridad mediante oscuridad” (security through obscurity) (Venturebeat, 15/05/2014). Recientemente se ha sabido también que la Agencia de Proyectos de Investigación Avanzados de Defensa (DARPA) realizó una investigación millonaria - bautizada como Medios de Comunicación Sociales en la Comunicación Estratégica (SMISC) - para comprender el comportamiento de los usuarios de las principales plataformas sociales. La Universidad del Sur de California se encargó de estudiar las interacciones en Twitter de 2.400 usuarios residentes en Medio Oriente para conocer sus interacciones y como difundían la información. IBM participó en la investigación sobre el modelo ideal del usuario con respecto a temas políticos y de medicina cuando los menciona en Twitter. Descubrieron que a los usuarios de Twitter no les gusta debatir, sino que prefieren compartir información con la que están de acuerdo. Como la información se da a conocer en tiempo real, es mucho más fácil manipular el contenido a través de un líder de opinión favorable porque 153


se lo retuitea con facilidad. ¿Qué interesa al Pentágono? “Nuestro trabajo tiene como objetivo identificar y comprometer a las personas adecuadas en el momento adecuado en los medios sociales para ayudar a propagar la información cuando sea necesario”, explicaron los investigadores. Pero no sólo se enfocan en los datos que han sido obtenidos de las cuentas de Twitter, pues incluyeron en su investigación rasgos de personalidad por los que pueden ser influenciados para invitarles a difundir. Así, las redes sociales han pasado a ser un objetivo estratégico para el Pentágono si desea desequilibrar a una nación. Y le interesa seguir de cerca a los activistas que se comunican a través de Twitter para intervenir en el momento adecuado (FayerWayer, 9/07/2014). Antes estas múltiples operaciones de espionaje, no es de extrañar que los directores generales de las principales empresas de tecnología salieran a la palestra a mediados de 2013, quejándose en voz alta de que la vigilancia de la NSA ha estado destruyendo la vida privada y arruinando su negocio. El fundador de Facebook, Mark Zuckerberg, declaró que los EEUU eran una “amenaza” a Internet, y Eric Schmidt, presidente de Google, llamó “escandalosas” y potencialmente “ilegales” algunas de las tácticas de la NSA (The Guardian, 12/04/2014). Ellos y otras empresas de Silicon Valley - como Yahoo, Dropbox, Microsoft y Apple - formaron una coalición que pidió la reforma de la vigilancia y tuvieron un encuentro con el presidente Obama en la Casa Blanca (17/12/2013). La Electronic Frontier Foundation (EFF) observa así que cada vez más empresas de Internet prometen formalmente notificar a los usuarios de las solicitudes legales de acceso a su información privada a menos que sea prohibido hacerlo por ley o por orden judicial. Muchas también participan en la defensa de la privacidad en tribunales o en acciones ante el Congreso (en los EEUU). El siguiente gráfico muestra la recopilación que hizo de los compromisos de las principales empresas:

154


Fuente: Cardozo, EFF (2013)

155


Las revelaciones de Snowden han tenido un impacto negativo enorme en la industria de la tecnología, lo que se expresó en un preocupante resultado: el 26% de los consultados en una reciente encuesta en los Estados Unidos afirmó que en base a lo que habían aprendido de los programas de vigilancia del gobierno norteamericano, estaban comprando menos en línea ahora y el 47% de los estadounidenses afirman haber cambiado sus hábitos en Internet y comenzado a analizar más concienzudamente lo que hacen y dicen online (FayerWayer, 3/04/2014). La Casa Blanca, con la esperanza de que el debate nacional sobre la privacidad vaya más allá de las actividades de vigilancia de la Agencia de Seguridad Nacional y considere las prácticas de compañías como Google y Facebook, publicó, el 1 de mayo 2014, un informe que recomienda la aplicación por el gobierno a las empresas privadas de límites sobre cómo hacen uso del torrente de información que obtienen de sus clientes en línea. El autor principal de este informe es John D. Podesta, un alto asesor de la Casa Blanca. Hace seis recomendaciones ● aprobación de una ley nacional sobre violación de los datos, que exigiría a las empresas informar cuando ocurran grandes pérdidas de datos personales y de tarjetas de crédito después de ataques como el que expuso información de tarjetas de crédito en unos 70 millones de clientes; ● una legislación que defina los derechos del consumidor con respecto a cómo se utilizan los datos sobre sus actividades; ● ampliación de las protecciones de privacidad para los individuos que no son ciudadanos de los Estados Unidos; ● medidas para garantizar que los datos recogidos de los estudiantes se utilicen solo para fines educativos. (New York Times, 1/05/2014) El informe señala también que la misma tecnología que a menudo es tan útil para la predicción de los lugares afectados por inundaciones o para diagnosticar enfermedades difíciles de descubrir en bebés, también tiene “potencial para eclipsar las protecciones tradicionales de los derechos civiles al utilizar la información personal acerca de la vivienda, el crédito, el empleo, la salud, la educación y el mercado” (ibidem). El informe se centra especialmente en los “algoritmos de aprendizaje” que se utilizan con frecuencia para determinar el tipo de publicidad en línea a exhibir en la pantalla de la computadora de alguien, o para 156


predecir sus hábitos de compra en la búsqueda de un coche o al hacer planes de viaje. Esos mismos algoritmos pueden crear una fotografía digital de la persona que, señala Podesta, puede permitir inferir la raza, el género o la orientación sexual, incluso si éste no es el propósito del software. Será interesante ver cómo se aplican estas recomendaciones. Quien crea que lo sugerido por la serie de televisión “Person of Interest” es una completa fantasía, puede visitar la página web “Watch_Dogs We Are Data” (http://wearedata.watchdogs.com/) de la compañía de videojuegos Ubisoft, donde es posible observar en línea y en tiempo real datos de acceso público basados en una ubicación en el mapa de ciudades como Berlín, París o Londres. El zoom hacia abajo permite ver donde están los teléfonos móviles, leer tuits provenientes de lugares específicos, identificar medios de transporte, nodos de red (relés de Internet, hotspots WiFi), ubicación de cajeros automáticos y baños públicos, y los datos de redes sociales en uso (como Twitter, Instagram, Foursquare y Flicker), y mucho más. Aunque esta página web es antetodo un sitio de marketing para un videojuego (Watch Dogs), los datos son reales y provienen de fuentes que han dado su autorización; no tiene ninguna información de fuentes no autorizadas, como, por ejemplo, del gobierno respectivo. Aún así, demuestra cuan “observada” es la sociedad de hoy (que lo es mucho más de lo exhibido dadas las restricciones señaladas). [No incluimos pantallazo de esa llamativa página debido a la prohibición de reproducción informada en ella por la empresa.] En marzo de 2014, el Tribunal de Justicia de la Unión Europea invalidó una directiva que obligaba a los proveedores de acceso a internet y a muchas empresas que ofrecían servicios en la Red a retener todos los datos sobre sus usuarios durante un largo período de tiempo, con el fin de facilitar posibles investigaciones policiales. Esta directiva de retención de datos “era algo tan demencial como que a todos los ciudadanos que circulan por la calle les asignasen un policía para que los siguiese a todas horas y apuntase muy detalladamente todas sus acciones, por si acaso en algún momento era preciso investigar algún delito” dijo El Mundo. “Además, la retención de datos no sirve para nada: genera una inmensidad de información cuyo análisis supone un reto enormemente complejo, impone costes 157


injustificados e injustificables a los proveedores de acceso y servicios en la Red, y lleva a que los verdaderos delincuentes, una vez en conocimiento de que esta vigilancia se está llevando a cabo, desarrollen su actividad por otras vías.” (El Mundo, 10/04/2014). La sentencia del Tribunal de Justicia de la UE que invalida la directiva sobre retención de datos puede cambiar de forma profunda el panorama regulatorio de internet en Europa, al poner en cuestión la amplitud con la que hasta el momento se retenían y usaban determinados datos relativos a las comunicaciones, tanto telefónicas y como electrónicas. La decisión del TJUE que invalida esta normativa apunta que la directiva supone una “injerencia de gran magnitud y especial gravedad en los derechos fundamentales al respeto de la vida privada y a la protección de datos de carácter personal”. La directiva nació en un momento crítico, poco después de los atentados del 11-M en Madrid en 2004 y del 7-J en Londres en 2005, como respuesta a la creciente amenaza terrorista a escala global y el espíritu de la norma era ayudar a la lucha contra los delitos más graves. De hecho, el Reino Unido abogó entonces directamente por una serie de normas de vigilancia y retención de datos (El Mundo, 8/04/2014). Posteriormente, la Alta Comisionada de la ONU para los Derechos Humanos publicó en junio el informe “The right to privacy in the digital age” (El derecho a la privacidad en la era digital), donde reza: “La vigilancia invasiva, así como la recolección y el almacenamiento de datos personales derivados de la comunicación digital - si forma parte de programas de vigilancia dirigida o masiva - no solo puede infringir el derecho a la privacidad, sino también un rango de otros derechos fundamentales” (Human Rights Council, 30/06/2014). 5.3.3. Los espías comerciales

Ya hemos mencionado, a propósito de los big data, como las empresas de internet recopilan datos de los usuarios. El siguiente cuadro reseña algunos de los métodos utilizados y señala cuáles de éstos utilizan cuatro de las principales empresas de la web.

158


Fuente: Baynote, junio 2013

Multitud de navegadores, editores y anunciantes siguen ganando millones de dólares gracias al análisis que se realiza sobre las costumbres de navegación de los usuarios. Podemos intentar protegernos. Para ello existe un estándar orientado a poder utilizar el “Do Not Track”, para que nuestros datos y comportamiento en la navegación no sean monitorizados. Pero grandes empresas, como Google, Yahoo y Facebook no siguen el estándar que sugiere implementar esta opción (aunque existen aplicaciones, como Ghostery, que permiten hacerla funcionar).

159


5.3.3.1. Retención de datos por proveedores

La principal asociación francesa de defensa de consumidores, UFC-Que Choisir, ha denunciado ante los Tribunales de Justicia a Twitter, Facebook y Google+ por las normas de uso de los datos personales de sus abonados que consideran “ilícitas” y “abusivas”. “Las condiciones siguen siendo inaccesibles, ilegibles, llenas de hipervínculos -entre 40 y 100 enlaces de hipertexto- y a veces se derivan a páginas en inglés. Peor aún, las redes continúan permitiendo ampliamente la recogida, modificación, conservación y explotación de los datos de los usuarios e incluso de sus familias. Sin el acuerdo expreso de los usuarios, dan una licencia mundial ilimitada para el funcionamiento y comunicación de datos a los socios del negocio” (El País, 25/03/2014). Una demostración de la posibilidad de abuso es lo ocurrido con Facebook. Se aprovecha de sus millones de usuarios y de los datos acumulados para hacer estudios sobre el comportamiento de los mismos, sin advertirles de ello. En marzo 2014, la revista Proceedings of the National Academy of Sciences (PNAS) publicó una investigación que Facebook realizó en 2012 con la participación de sociólogos de la Universidad de Cornell. Analizaron cómo se contagian las emociones en función de las palabras positivas o negativas contenidas en el feed de noticias de 689.003 usuarios elegidos al azar. Lo más cuestionable es que implantaron un algoritmo que omitía contenido positivo o negativo en el feed de noticias para estudiar el eventual contagio emocional del tipo de contenido y observaron que a pocas palabras positivas los usuarios recurrían a más palabras negativas y a pocas palabras negativas los usuarios contestaban con más palabras positivas. Legalmente, Facebook tiene derecho a realizar este tipo de estudios desde el momento en el que el usuario crea su cuenta y acepta las condiciones de uso, pero hacer experimentos sin el conocimiento de los usuarios no es de lo más ético. Y este caso es una clara llamada de atención acerca de la manipulación de la que cualquiera puede ser objeto en las redes y comunidades digitales (BBC Mundo, 30/06/2014). En realidad, los experimentos científicos para manipular las emociones desde la red son costumbre entre muchas empresas de software advirtió Evan HenshawPlath, uno de los cofundadores de Twitter. “Cada día realizan juegos psicosociales, de mayor o menor envergadura, para conocer mejor las necesidades de la gente y 160


desarrollar así productos más innovadores”, dice, y para crear productos “adictivos” como ha sido, por ejemplo, Angry Birds, un juego para móviles que recopila numerosos datos personales (El Mercurio, 24/07/2014). Aunque lo ideal es que por defecto la configuración de los servicios o aplicaciones sea lo más restrictiva posible con nuestros datos, la realidad es la contraria. Utilizan el formato llamado “opt-out”, en que tenemos que denegar manualmente lo que no queremos compartir, en lugar de un “opt-in”, en el que elegiríamos únicamente lo que estamos dispuestos a compartir. Y la interconexión de datos entre socios puede volverse un total descontrol, haciendo que nuestra información termine en sitios que no queremos. Así, por ejemplo, Instagram envía marca y modelo de móvil, país, resolución, versión de Android, nombre de usuario y contraseña, pero la contraseña se transmite por medios no cifrados. Los datos se envían sólo a tres sitios posibles, ninguno con fines publicitarios. Pero un juego como Angry Birds va mucho más lejos: comparte navegador web predeterminado, tipo de conexión utilizada mientras se juega, operador móvil, listado de sensores, versión de Android, marca y modelo del teléfono, firmware del mismo, tipo de audio, idioma, país, IP, tipo de alimentación, hash IMEI, hash dirección MAC y resolución de pantalla, informaciones que manda a hasta siete sitios diferentes, sin protocolos seguros (Xataka, 3/04/2014). El 73% de los consumidores prefieren hacer negocios con las marcas que utilizan la información personal para hacer que sus experiencias de compra sean más agradables. Sin embargo, más de la mitad está preocupada de que su información se vea comprometida cada vez que ingresa a un sitio web de negocios. 29% de los consumidores han abandonado el registro o la compra en un sitio web, debido al temor de su información se vea comprometida. Los vendedores de hoy están luchando para caminar por la línea entre la privacidad y personalización, sin darse cuenta de que estos objetivos no tienen que ser mutuamente excluyentes. (Venturebeat.com, 11/04/2014). “A medida que avanzamos, como industria, tenemos que preguntarnos a nosotros mismos: "¿Hemos comunicado los riesgos y beneficios de los grandes volúmenes de datos y su análisis de una manera significativa a los que en última instancia pueden ser los principales beneficiarios de sus 161


capacidades o, más importante aún, las víctimas del abuso?" Mi respuesta a esto sería un rotundo "¡NO!". Evitar una "tormenta perfecta" en este campo puede lograrse informando mejor acerca del impacto de esta tecnología en la intimidad personal. [...] Un consumidor informado puede decidir participar o no, para luego vivir con su decisión, sea para cosechar los beneficios propuestos sea encontrándose con consecuencias desconocidas que pueden volverse en su contra por décadas. [...] El paradigma reconocido del consentimiento informado acerca de los datos privados puede ser todavía muy eficaz en el mundo de los grandes datos y su análisis si se combina con comunicaciones adecuadas, con un análisis exhaustivo de los riesgos y beneficios para el consumidor y con la capacidad para que puedan cancelar la suscripción en cualquier momento. La no adopción de este tipo de enfoque podría dar lugar a una oleada de legislación nueva y políticas más onerosas, a la condena pública y la retribución financiera. Parece una decisión simple y el camino hacia el éxito.” (R. Lee, 2014). “Seamos realistas”, dice Forbes: gran parte de la minería (análisis) de datos que está pasando ahora sólo continuará siendo más avanzada, con el objetivo principal de monetizar el tráfico de internet y los usuarios, así como la prestación de nuevos servicios y características que un público objetivo podría desear (Forbes, 25/04/2014). Las empresas privadas ya recogen y venden hasta 75.000 informaciones individuales de cada consumidor, de acuerdo con un informe del Senado norteamericano. En una encuesta nacional de Pew Research, de fines de 2013, dos tercios de los usuarios de Internet dijeron que las leyes actuales no eran adecuadas para proteger la privacidad del consumidor en línea. Los titanes de la tecnología acusan al gobierno por el espionaje de la NSA, pero se oponen a cualquier discusión acerca de la explotación comercial de los datos privados. Su lobby ante los legisladores de Washington ha llevado a una reticencia profunda a ejercer el poder legislativo, reglamentario o ejecutivo para frenar el negocio de ciberespionaje corporativo, a pesar de que el presidente Barack Obama anunció después de dos años de deliberaciones - que iba a impulsar un proyecto de ley sobre el derecho a la privacidad del consumidor (Politico.com, 14/05/2014).

162


La nueva tendencia es crear aplicaciones móviles que den mayor discreción a las personas que utilizan las redes sociales, con la finalidad de obtener más honestidad de su parte. Un ejemplo de ello es Secret, creada por dos ex-ingenieros de Google que buscaban una forma de que sus compañeros de trabajo les dieran una retroalimentación real. Este desarrollo se ha unido a un puñado de aplicaciones como Confide, Whisper y Yik Yak que se han vuelto populares -y en algunos casos, notorias- en los últimos meses, al ofrecer a los usuarios una manera de comunicarse sin tener que revelar sus identidades. El surgimiento de este tipo de herramientas se da principalmente porque actualmente redes sociales como Facebook, Twitter y LinkedIn presionan a la gente a presentar su imagen pública lo más pulida posible (Noticiasdot.com, 24/03/2014). 5.3.3.2. El espionaje publicitario

La información es poder. Y eso lo saben tanto los servicios secretos de los EEUU que rastrean la Red a la búsqueda de terroristas, como los anunciantes que intentan descubrir los gustos personales del internauta para venderle todo tipo de productos. El problema es que muchas veces estas investigaciones de mercado se hacen de forma ilegal o abusando de la confianza del usuario. Agencias publicitarias (o empresas afines) han instalado “arañas” que, en forma semejante a los motores de búsqueda, exploran permanentemente la WWW para detectar direcciones de correo electrónico. Se forman de este modo bases de datos que alimentan luego los programas de despacho de “correo basura”. Estas arañas se suman a los “banners” muchas veces acompañados de “cookies” que leen datos del disco duro del navegante que no ha tomado la precaución de desactivar la recepción automática de éstas. A diferencia de las arañas que recogen mails, estos otros sistemas entregan mucho más información y permiten segmentar a las futuras víctimas en función de diversas características que se pueden deducir de la información recogida (siendo la más común el archivo histórico de navegación por la web, lo cual permite conocer los gustos y el área de trabajo del “blanco”). No olvidemos que numerosos servicios en la web registran -y luego venden- los datos de sus usuarios (“El cliente es el producto”). Así, por ejemplo, Facebook ha anunciado el lanzamiento de una herramienta para anunciantes llamada Facebook Audience Insights. Su finalidad es evaluar clientes actuales y potenciales para 163


personalizar sus mensajes y sus estrategias de marketing. Dará información demográfica (edad, estilo de vida, educación, relaciones, trabajo, etc.), también información sobre likes, mostrando las páginas preferidas de la gente en distintas categorías, sobre localización y lengua, para conocer dónde vive la audiencia y saber qué idiomas habla, sobre el uso de Facebook y sobre la actividad relacionada con las compras online, offline y formas de pago (Wwhat's New, 8/05/2014). Si bien es a veces imposible no publicar el e-mail, es mucho más fácil defenderse de las cookies, ya que todos los navegadores tienen una función de desactivación (aunque algunos sitios web rehusan funcionar sin ellas). Pero puede resultar más difícil deshacerse de otra forma de espionaje, que ha ido creciendo últimamente: los spyware, es decir aplicaciones útiles que contienen una función que opera de modo parecido a las cookies, enviando información por internet a su autor sin que lo sepa el usuario. El spyware se esconde sobretodo en los programas gratuitos (freeware o shareware), especialmente en los que están relacionados con funciones de comunicación (como programas de chat o de intercambio P2P). Para detectarlos (y eliminarlos) es conveniente utilizar alguna de las nuevas aplicaciones diseñadas especialmente para ello, o un antivirus que contenga esta protección (lo cual se está generalizando). 5.3.3.3. Los corredores de datos

En un informe publicado hace poco, la Comisión Federal de Comercio de Estados Unidos (FTC) advirtió sobre posibles abusos crecientes por parte de la industria de corredores de datos (compra y venta de información personal). El informe analizó a nueve empresas representativas del sector: Acxiom, Corelogic, Datalogix, eBureau, ID Analytics, Intelius, PeekYou, Rapleaf y Recorded Future. Los corredores de datos recogen información, por ejemplo, sobre origen étnico, edades de los hijos, estado de salud, créditos, hipotecas, uso de redes sociales, cuentas en internet, préstamos, lugares de vacaciones y marcas preferidas de alimentos. Esta información es obtenida de muchas fuentes, desde redes sociales a censos oficiales, tiendas o registros de propiedad. Con ellos, pueden, por ejemplo, categorizar a alguien como un consumidor con mal historial de crédito, o como una persona con problemas de salud que podrían afectar su desempeño laboral, aun si la información en que se basan es incorrecta (BBC Mundo, 28/05/2014). 164


5.4. Censura Después el espionaje, el problema sin duda más conocido hoy en relación al control gubernativo es el de la censura política de la información, especialmente en el caso de hechos noticiosos que ciertos gobiernos consideran perjudiciales para su imagen. Las medidas que adoptan van desde disposiciones legales -que pueden llevar hasta el encarcelamiento de los infractores- hasta la intervención y control de internet, como en China, pasando por el cierre de medios de comunicación “molestos”, como ha ocurrido en Venezuela, o el limitado acceso a internet en Cuba. Del mismo modo que se cierran medios tradicionales prohibiendo su funcionamiento, se pueden cerrar (bloquear) servidores de web. Los gobiernos lo han intentado algunas veces, pero este método se ha revelado totalmente inútil: en pocos minutos se puede transferir la información e incluso construir un duplicado completo del servidor (mirror) en otro país, donde no se aplican las mismas regulaciones. La web no tiene fronteras y las leyes locales tienen escaso poder para controlarla. Ejemplos de ello son los sitios “The Pirate Bay” y Wikileaks, que cambian frecuentemente de servidor y ubicación. Solo medidas extremadamente drásticas, aplicadas a las personas (encarcelamiento), pueden acallar hoy a los disidentes. Sin duda lo más efectivo y fácil parece ser el bloqueo del flujo entrante de información y todos los países con regímenes autoritarios lo hacen. Pero ya no es posible controlar totalmente el flujo de salida, como lo podemos observar con ciudadanos de Irán, China y otros países. Y es que en estos países también han entrado las nuevas tecnologías, siendo los teléfonos celulares con cámaras fotográficas medios de muy difícil control. De relevo en relevo, o con tarjetas SIM pasadas subrepticiamente de mano en mano, la información siempre termina por escapar y llegar a algún editor externo benévolo. Estos informadores son los que hoy tienen el mayor poder para lograr cambios de parte de los gobiernos correspondientes.

165


5.5. Seguridad 5.5.1. Operación de la web

Desde el 2012, un error en el protocolo de seguridad OpenSSL (el HTTPS visible en la barra de dirección de nuestro navegador) permitía a un hacker acceder a la memoria de un servidor y recuperar los datos de sus usuarios, obteniendo así, sus nombres y claves de acceso. Este protocolo es usado por el 66% de internet para asegurar a los usuarios que la información que den no podrá ser accedida por terceros. Que las empresas no lo hayan tomado en cuenta hasta que se difundiera el problema en la web, a principio del 2014, es obviamente muy grave y obliga a los usuarios a estar más atentos a esta problemática y sobretodo a los especialistas a reforzar los protocolos de internet (Alt1040, ABC, etc., 9/04/2014). Frente a esta situación, Amazon, Cisco, Dell, Facebook, Fujitsu, Google, IBM, Intel, Microsoft, NetApp, RackSpace, VMware y The Linux Foundation formaron la Core Infrastructure Initiative (Iniciativa de Infraestructura Clave), que permitirá a las compañías de tecnología colaborar para identificar y financiar proyectos importantes de código abierto que necesiten asistencia, empezando por OpenSSL, para mejorar su seguridad, de la que depende la WWW (Mundo en Línea, 30/04/2014). “Es increíble que todo internet, incluyendo grandes compañías como Google y Facebook se basan en la pequeña fundación OpenSSL, que gestiona la biblioteca libre de cifrado. Tienen cuatro desarrolladores trabajando en el proyecto, y sólo uno a tiempo completo. Tal vez estas empresas multimillonario podrían tirar un poco de dinero para ayudar a preservar el futuro de Internet” dijo el dirario The Guardian (12/04/2014). Pero el SSL no es el único problema de seguridad en la navegación. Apenas solucionado por sus principales usuarios, apareció la denuncia de otro brecha, en este caso un fallo que afecta a páginas de empresas como Google, Facebook, Microsoft, Linkedin, Yahoo, PayPal, o GitHub que usan herramientas de código abierto como el ‘login social’ para autenticar a sus usuarios. Este error permite a un atacante hacer creer a un usuario que una nueva ventana que redirija a uno de estos sitios es segura cuando en realidad no lo es. Lo mejor que podemos hacer cuando estemos navegando y pulsemos en un sitio que abre un pop up que nos pide 166


loguearnos en Facebook o Google es cerrar esa ventana para evitar que nos redirija a sitios sospechosos (Alt1040, 2/04/2014) . “El número de amenazas ha crecido exponencialmente en los últimos 10 años. Nuestros laboratorios registran más 250.000 amenazas únicas cada día. Y la complejidad y la sofisticación de estas amenazas ha crecido también. ¿Por qué? Porque se trata sobre todo de la enorme cantidad de dinero que mueve el cibercrimen. Y cuando hay una enorme cantidad de dinero por hacer, cada vez más gente se ve atraída a participar de ese mercado, gente cada vez más lista y mejor preparada”, dice Kris Hagerman, consejero delegado de la empresa de seguridad Sophos (El Mundo.es, 25/05/2014). Los antivirus tradicionales ya no son suficientes para proteger a los clientes. En los equipos son un requisito crítico, pero no suficientes por si mismos para tener una buena seguridad. Se necesita proteger el entorno: los servidores y las redes. Y usar encriptación de datos. 5.5.2. Ciberdelincuencia 5.5.2.1. Formas

La forma básica más conocida de la ciberdelincuencia es la piratería asociada a la creación de pequeñas aplicaciones diseñadas para causar daños: los virus. El primer virus fue “Creeper”, creado en 1971 por Bob Thomas, que era capaz de reproducirse sobre la red ARPANET. También dió origen al primer anti-virus, que lo detectaba y destruía. Desde entonces, los virus y otro programas maliciosos (“malware”) se han multiplicado con rapidez, especialmente desde la apertura de la World Wide Web (gráfico siguiente). Este crecimiento, junto con la multiplicación de las aplicaciones móviles (apps), muchas con fallas de seguridad, están llevando a considerar que los antivirus “están muertos” o “condenados a fracasar” a decir de Brian Dye, vice-presidente del Grupo de Información e Inteligencia de la empresa de seguridad Symantec quien calcula que hoy en día los antivirus solo logran detener aproximadamente el 45% de los ciberataques (FayerWayer, 5/05/2014).

167


Casi dos tercios de todos los ataques cibernéticos a las aplicaciones web se han producido sólo por diversión, según Verizon. Sólo un tercio de los autores se centró en el dinero, sobre todo por medio de ataques a las industrias financiera y de ventas al por menor (retail) (Marketwatch.com, 23/04/2014). Según las cifras de Kaspersky, el 33,5% de los ataques a dispositivos móviles tiene como objetivo el robo de dinero de los usuarios. El malware móvil supera los 2 millones de unidades desde la aparición de Android según el equipo de investigación de amenazas de Trend Micro (PRnoticias, 21/05/2014). Trend Micro ha escaneado más de 390.000 apps de Google Play (cuya seguridad se supone verificada por la empresa) y ha encontrado que alrededor de 1.300 de estas aplicaciones pueden ser vulnerables a los ataques de hackers. Entre ellas hay 15 apps relacionadas con bancos, 39 con servicios de pago

168


online y 10 están relacionadas con tiendas online, todas las cuales se prestan para el robo de credenciales (Noticiasdot.com, 14/04/2014). Los sitios web que ofrecen contenidos pirateadas también son una fuente generalizada de malware. Según el último estudio llevado a principio de 2014 por Intelligent Content Protection (Incopro), sólo 1 de los 30 sitios con contenidos pirateados más importantes estaba libre de anuncios de aplicaciones indeseables. Los datos del análisis revelan que el 90% de estas webs contenían malware y programas no deseados que molestaban al usuario y que potencialmente le conducían al robo de sus datos y estafas con tarjetas de crédito (67%). Una segunda forma de piratería es tratar de penetrar directamente en los servidores de las empresas sea para robar datos sea para modificarlos, destruirlos o detener su funcionamiento. Estos ataques pueden tomar las siguientes formas: 1. Ciberdelincuencia contra servicios financieros: son principalmente los llamados ‘troyanos bancarios’, diseñados para robar los datos de las tarjetas de crédito, cada vez más centrados en los dispositivos móviles. Por ejemplo, en la “Operación High Roller” se vieron afectadas 60 entidades financieras de todo el mundo, víctimas de un ciberataque en el que se extrajeron 60 millones de euros. El grado de sofisticación del malware indica que fue obra del crimen organizado porque la configuración del ataque requirió inversión para el desarrollo, muchas horas de trabajo y una logística muy importante (ABC.es, 4/04/2014). Sin embargo, tras una década de reinado criminal, los troyanos bancarios iniciaron su extinción según Frank Ruiz y Manu Quintans, analistas de inteligencia en las empresas Fox It y Deloitte. La principal razón sería la detención de hackers y empresas clave en la creación de este tipo de código malicioso. Otra razón es el alto precio que ha obtenido al cambio la moneda virtual Bitcoin y la forma como se genera, usando la potencia de muchos ordenadores, lo cual la hace perfecta para los dueños de las “botnets” (redes robots, generalmente PC “secuestrados” sin que lo sepan sus dueños). Al contrario, va en aumento un nuevo tipo de virus, dirigido a los ordenadores que hacen de cajas registradoras en las tiendas, bares y otros establecimientos: asaltan estos sistemas, que suelen funcionar con sistema operativo Windows, y capturan las tarjetas de crédito que pasan por el escáner conectado a dichas máquinas (El Mundo, 21/06/2014). 169


2. Ciberdelincuentes organizados o mafias que han trasladado al mundo “virtual” sus acciones en el mundo “real”. Fraude online, clonación de tarjetas de crédito, extorsión, blanqueo de capitales, etc. 3. Infección a través de páginas web: atacan sitios web, modificando las páginas que recogen datos de afiliados (phishing) o provocando la descarga de aplicaciones maliciosas en los equipos de los usuarios que acceden a dichas páginas. Un ejemplo es Blackole, un exploit-kit (paquete que contiene programas maliciosos) que infectó millones de equipos en todo el mundo y cuyo creador fue detenido en 2013. 4. Ciberhacktivistas: personas o grupos que intentan socavar los servicios de un oponente, a veces por razones ideológicas. El ejemplo de Anonymous es paradigmático y, en estos casos, sus ataques suelen centrarse en ataques DDoS (denegación de servicio, sobrecargando de mensajes un servidor), desfigurando páginas web o publicando datos comprometidos. 5. Cibersabotaje: busca dañar la reputación de una organización y su funcionamiento. Un ejemplo es la actividad del Ejército Electrónico Sirio, que ha estado atacando a todos aquellos que, en su opinión, propagan el odio y quieren desestabilizar la seguridad en Siria, incluidas empresas periodísticas de todo el mundo. Llegaron a provocar incluso una caída de 150 puntos en el Dow Jones Industrial Average (índice de la Bolsa de Estados Unidos), ante una noticia falsa de un atentado en la Casa Blanca difundido por Associated Press en Twitter (ABC.es, 4/04/2014). 6. Ciberdelincuentes aislados que tratan de penetrar bases de datos comerciales y las venden luego al mejor postor. Otra forma de delincuencia es el uso de internet para la venta de drogas, tráfico de órganos y, sobre todo, pederastia. Como ya señalado, este lado más perverso del ser humano recurre a la “dark net” utilizando TOR y redes privadas VPN, lo que complica las investigaciones. Los usuarios realizan generalmente el pago con Bitcoins y los clientes “si han recibido un buen trato y el arma estaba bien o la

170


droga, pueden puntuar al vendedor y el que viene detrás ve la calidad del producto”, señalan experto de la Guardia Civil española (El Mundo, 6/04/2014). 5.5.2.2. Extensión y efectos

En 2013, el número de robos de datos generó la exposición de aproximadamente 552 millones de identidades según el ISTR Volumen 19 de Symantec (CNNChile, 8/04/2014; infografía de Symantec).

En 2013 también, Kaspersky Lab detectó 143.211 programas maliciosos para smartphones y tabletas. El 33,5% de los ataques a dispositivos móviles tenía como objetivo el robo de dinero de los usuarios. El segundo objetivo de los ciberataques a dispositivos móviles fue el robo de datos con un 20,6% del malware móvil (Terra.cl, 13/05/2014). Un estudio de la empresa de seguridad Symantec dio cuenta de que en 2013 la fuga de datos aumentó un 62% en comparación con 2012, lo que generó la exposición de aproximadamente 552 millones de identidades. El 50% de esas incursiones

171


apuntaron a empresas grandes con más de 2.500 empleados, el 19% a empresas medianas que tienen entre 251 y 2.500 empleados, y el 31% a empresas con menos de 250 empleados. Los ataques en la red bloqueados aumentaron de 464.100 por día en 2012 a 568.700 diarios en 2013, un incremento del 23%. El correo electrónico conocido como “spam” -ofertas y promociones no solicitadas que se envían a millones de usuarios de internet- disminuyó en tres puntos porcentuales desde el 69 % del tráfico de e-mails en 2012 al 66 % en 2013. Los que ofrecen pornografía, sexo y enlaces románticos subieron del 55% en 2012 al 70% en 2013 (ABC, 11/04/2014). España superó la media mundial de envío de spam con un 70% de correo electrónico basura según la empresa española Mailify, lo que supera la media mundial, que es de 63,5% según Kaspersky (TICbeat, 5/05/2014). Snapchat fue blanco de un ataque que hizo que los números de teléfonos de unos 4 millones de personas, sus nombres y fotos fueran vulnerables por varios días, hasta que la aplicación logró solucionar el problema. Widefense sugiere restringir al círculo de amistades las publicaciones y las fotos en las redes sociales, y no aceptar contactos desconocidos. Antes de descargar una aplicación gratuita al teléfono o tableta, el usuario debe leer los comentarios y las calificaciones sobre ella. Se dará cuenta de inmediato si se trata de una app fraudulenta (El Mercurio, 15/04/2014). Los ataques a los perfiles corporativos y profesionales en las redes profesionales se perfilaron, en 2013, como una de las prácticas preferidas por los hackers, porque garantizan que, con solo robar una contraseña, podrán afectar a una masa considerable de usuarios. En su blog de seguridad, el Instituto Nacional de las Tecnologías de la Comunicación (Inteco) alertó del repunte de este tipo de ciberataques y citó datos que afirman que estos incidentes ya les cuestan a las empresas mil millones de dólares al año, una cifra que podría triplicarse de aquí a 2020 si las compañías no fortalecen sus defensas (TICbeat, 7/04/2014). El ciberdelito cuesta a la economía mundial 445.000 millones de dólares al año y el hackeo por parte de individuos cuesta a las empresas 160.000 millones de dólares en el robo de propiedad intelectual, según el Centro para Estudios Internacionales y Estratégicos (CSIS). Las pérdidas relacionadas con la información personal, como

172


datos de tarjetas de crédito robados, se cifraron en hasta 150.000 millones de dólares el año pasado (Reuters, 9/06/2014). Todo indica que esta tendencia seguirá siendo muy fuerte durante 2014, luego que el laboratorio de investigación de ESET Latinoamérica diera a conocer las amenazas más destacadas del primer trimestre, donde reveló que la privacidad es el principal objetivo de los ciberdelincuentes de la red. Kaspersky Labs ha puesto a disposición del público una herramienta que muestra todos los ataques informáticos que esta compañía de seguridad detecta en el mundo, en tiempo real. La visualización muestra los ataques mediante líneas que unen la situación del atacante con la de su víctima. Cada color representa un tipo concreto de ataque, desde denegaciones de servicio (DDoS), hasta virus o spam. Al navegar sobre el mapa podemos ver las estadísticas de cada tipo de ataque por país, así como su posición en el ránking mundial de países más infectados. En el pantallazo que sigue se puede ver, por ejemplo, que, en Sudamérica, aunque los ataques parecen escasos en un momento dado y se dirigen principalmente a Brasil, éste es el noveno país más atacado mientras España es el décimo y se notan sus conexiones con Sudamérica. Estados Unidos es el cuarto y Rusia el primero, siendo muy visible el enorme flujo en Este u Oeste en el hemisferio norte. (Gizmodo, 1/04/2014 - Pantallazo del 2/04/2014 en ABC, 31/03/2014). En verde, cuando al antivirus escanea un sistema al encenderse En rojo, cuando se escanea el disco duro En azul, páginas web infectadas En violeta: ataques a sistemas operativos

173


La firma de seguridad Norse colocรณ en su red una trampa destinada a atraer a los hackers, detectando, por ejemplo, que los EEUU sufren 27 veces mรกs ataques que Tailandia. El siguiente pantallazo muestra los ciberataques detectados en 45 minutos en la trampa, con 5.840 dirigidos a Estados Unidos. Las cifras reales son muy superiores: diariamente, hay 10 millones de ataques solamente al Pentรกgono (Business Insider, 8/0/2014).

174


5.5.2.3. Espionaje

La red troncal de Internet - la infraestructura de las redes en la que viaja el tráfico de Internet - pasó de ser una infraestructura pasiva para la comunicación en un arma activa para los ataques. Ya hemos expuesto cómo los gobiernos, especialmente el norteamericano, espían la red. Pero, además, pueden intervenir activamente en los servicios de terceros. De acuerdo con las revelaciones sobre el programa de QUANTUM, la NSA podía “disparar” (sus palabras) un exploit en cualquier destino que desee si su tráfico pasa a través de la columna vertebral. Parece que la NSA y el GCHQ británico fueron los primeros en convertir la red troncal de Internet en un arma, como lo ha revelado Edward Snowden. El gobierno de Reino Unido reveló que su servicio de inteligencia, GCHQ, puede intervenir las cuentas de Google y Facebook de sus ciudadanos sin autorización legal “porque dichas compañías están basadas en el exterior”. La política de fisgoneo en el Reino Unido fue revelada como parte de una lucha legal que viene librándose con el grupo activista Privacy Iternational (Noticiasdot.com, 19/06/2014). Si el GCHQ puede también hackear Belgacom (la compañía de teléfonos belga) para permitir las escuchas telefónicas secretas, Francia puede hacer lo mismo con AT&T. Si la NSA puede hackear Petrobras, los rusos pueden justificar el ataque a Exxon/Mobil. Ahora vivimos en un mundo en el que, si tenemos suerte, los atacantes pueden ser todos los países a través de los cuales nuestro tráfico pasa. Lo que significa que el resto de nosotros - y, especialmente, cualquier compañía o individuo cuyas operaciones sean económicamente o políticamente significativo - son ahora objetivos. La única defensa posible: el cifrado universal. (Wired, 13/11/2013) Las actividades de espionaje cibernético a nivel global en 2013 se triplicaron en comparación con el año anterior y son atribuibles a residentes de China y otras naciones del este de Asia en un 49 por ciento de las ocasiones, pero en los países del este de Europa, especialmente en las naciones de habla rusa, este tipo de delitos ha aumentado hasta alcanzar el 21 por ciento de las violaciones, según Verizon Communications. El 11 por ciento de los ataques de espionaje se debió a delincuentes organizados y un 87 por ciento a gobiernos. (IBLnews, 22/04/2014)

175


5.5.3. Ciberguerra Existen diversos tipos de guerra cibernética a través de las redes, con diferentes tipos de actores. 5.5.3.1. Guerra informática (I-War)

La “guerra informática” (Information warfare o I-War) es un concepto general, que se funda en las debilidades de las redes informáticas y la posibilidad de aprovechar sus defectos para causar daños a un “enemigo” que puede ser desde el computador de una pequeña empresa competidora hasta los sistemas militares de un estado. Si bien la idea básica es esencialmente militar, las herramientas de esta guerra están también al alcance de civiles y -lamentablemente- de terroristas. El objetivo es afectar de algún modo el computador o la red del oponente para entorpecer su desempeño o destruir completamente su capacidad operativa, lo cual ya es posible con el mero envío de un virus. Para entender con facilidad el concepto de “I-War”, se cita el ejemplo -ficticio- de la “Impresora Manchuria”: se trata de una impresora láser de alta calidad y bajo precio, vendida a un país extranjero, que contiene un código de auto-destrucción. Una vez instalada masivamente, bastaría que el productor envíe por la red el código secreto para destruir la mayor parte del parque de impresoras de ese país. Lo mismo podría ocurrir con computadores de alta tecnología (por ejemplo destinados al control aéreo) o con cualquier versión de sistema operativo de los PC. De hecho ya existen y son utilizados ciertos tipos de “bombas lógicas” en aplicaciones comerciales, como es el caso de rutinas que las desactivan -cierran, bloquean o reducen a una versión “demo”- después de una fecha o un período de tiempo determinado. Hace falta muy poca imaginación para pensar en otras aplicaciones del sistema, mucho más destructivas: un demo de un procesador de palabras, por ejemplo, podría borrar el procesador de la competencia instalado en el disco duro o “actualizar” los archivos de documentos creados con versiones anteriores, obligando a comprar la nueva versión. Los virus son sólo otra familia de armas del mismo tipo.

176


La guerra informática puede ser de 3 clases según Winn Schwartau -que publicó un libro sobre el tema-: • Clase 1: Guerra antipersonal Esta clase de “guerra” incluye los ataques contra la privacía de los datos personales. Esto implica la revelación (o búsqueda no autorizada) de información existente en bases de datos que se suponen confidenciales, o su alteración. Un ciudadano promedio tiene hoy muy poca posibilidad de controlar los datos que le conciernen y que han sido recopilados por diversas empresas (al abrir una cuenta corriente, al obtener y utilizar una tarjeta de crédito, al contestar encuestas, etc.). Estos datos no sólo pueden ser obtenidos ilegalmente por piratas sino que pueden ser vendidos por las empresas que los poseen y utilizados para fines de marketing u otros. Lo peor es que esta información puede ser alterada y cualquiera de nosotros podría aparecer con un prontuario judicial (falso), sin saberlo y sin poder reclamar. De ahí que los países de la Unión Europea formularan leyes bastante exigentes en torno a la protección de los datos personales y estén desincentivando el comercio electrónico con países que no tienen leyes equivalentes (propósito de la "Directiva 95/46/CE" del Parlamento Europeo, de octubre de 1998). Las condiciones mínimas de protección que insta a cumplir la directiva van desde la necesidad de que el ciudadano sepa dónde y para qué está almacenada su información personal, tener acceso a ésta en todo momento y poder modificar los datos incorrectos, así como evitar su utilización ilegal para procedimientos de mercadeo o publicidad. Esto ha creado dificultades en los intercambios con Estados Unidos cuya política consiste en remitir el problema al sector privado sin legislar al respecto. • Clase 2: Guerra corporativa Este es el tipo de guerra que pueden mantener corporaciones y empresas de todo el orbe, recurriendo a métodos de piratería computacional para penetrar los sistemas computacionales de sus competidores, obtener acceso a sus bases de datos y a los resultados de sus investigaciones. Podrían incluso destruir antecedentes, haciendo que dicha destrucción parezca un accidente fortuito producto de un virus, con lo cual podrían ponerse en ventaja en el desarrollo de un nuevo producto. Otra forma de combate es la difusión por Internet de información falsa acerca de productos de la competencia. Así, por ejemplo, una empresa farmacéutica podría dañar seriamente las ventas de otra compañía dando a conocer una supuesta información 177


científica acerca de contraindicaciones de un determinado fármaco producido por ésta. Hasta que se descubra el fraude, miles de médicos dejarían de recetar el remedio y las pérdidas serían enormes. Lo mismo podría pasar en relación a productos computacionales y otros, donde le sería muy difícil al consumidor controlar la veracidad de la denuncia. Ha pasado después de un accidente de un avión ATR, cuando un sitio web explicó lo ocurrido basándose en falsas especificaciones técnicas. Según señala Haeni, la guerra corporativa ya es cosa de todos los días, aunque muy pocos incidentes son dados a conocer debido a que multiplicarían los efectos negativos. Según un informe del Consejo de Estado de Francia, France Telecom sería objeto de 900 intentos de penetración de hackers por cada fín de semana. En 1995 el Departamento de Defensa Norteamericano ya detectó 38.000 ataques a sus sistemas. • Clase 3: Guerra global Esta categoría se aplica tanto a las relaciones entre industrias y poderes económicos como entre naciones. Ya no se trata de robar secretos o producir algún daño limitado sino de recurrir a métodos que permitan destruir al enemigo. Aquí los recursos a invertir son lo de menos porque -aunque cuantiosos- son menores que los que se requerirían para una guerra convencional. Una inversión de 200 millones de dólares en recursos para la guerra informática serían suficientes para “poner de rodillas” al sistema económico norteamericano, lo cual está al alcance de cualquier país del Tercer Mundo. La relación costo-beneficio es -desgraciadamente- muy ventajosa para los terroristas y los gobiernos enemigos. La distancia no juega ningún papel y no existen medidas preventivas que puedan dar una seguridad absoluta. La CIA plantea que sus futuros enemigos no pretenderán atacar el país con armas nucleares sino penetrando en sus sistemas informáticos y causando verdadero daño a su poderío militar y a su economía. ¿Y porqué los terroristas van a elegir este tipo de acciones? La primera razón es que a través de internet se mueven billones de dólares en pequeñas transacciones comerciales con una protección bastante baja. La segunda razón es que se pueden causar desastres militares casi tan graves como

178


los que se pueden ocasionar en el campo de batalla, y sin salir de casa (Diario del Navegante, 7/7/98). 5.5.3.2. Ciberguerra de red (Netwar)

Otro tipo de ciberguerra, llamado Netwar, es el de los conflictos amplios entre naciones o sociedades. Implica tratar de destruir, dañar o modificar lo que conoce o piensa una población-meta, por ejemplo para provocar un cambio de opinión o inducir a decisiones erróneas. Para ello pueden recurrirse a tácticas de propaganda, “subversión cultural”, interferencia con medios locales, infiltración en bases de datos, etc. También puede ser usado por los gobiernos para combatir grupos disidentes, terroristas o traficantes. No se trata, por lo tanto, de dañar la operatividad de un computador o una red, sino de afectar la información contenida en ellos, ojalá sin que el oponente se dé cuenta. Un ejemplo de Netwar es el ataque realizado contra sitios web de Israel el 7 de abril 2014 por un grupo de piratas en solidaridad con la causa palestina. Aparte de que causaron poco daño, lo interesante ha sido la respuesta: la Israeli Elite Force penetró y se hizo con el control de los ordenadores de al menos 16 piratas que formaron parte de la ofensiva. No solo revelaron sus identidades: captaron sus rostros, filmados con las webcams de sus propios equipos (imagen adjunta) (El Mundo, 15/04/2014).

179


5.5.3.3. Guerra cibernética (Cyberwar)

Finalmente, la “guerra cibernética” (Cyberwar) en sentido estricto implica mucho más que la “guerra informática” (IWar). Si bien involucra tecnología informática, se refiere a la utilización de ésta para conducir operaciones militares típicas: desde conocer (espiar) hasta destruir físicamente los recursos del oponente. Incluye desde la infiltración en los sistemas informáticos enemigos para obtener información hasta el control de proyectiles mediante computadores, pasando por la planificación de las operaciones, la gestión del abastecimiento, etc. Según publicó el Washington Post a raíz de las revelaciones de E.Snowden, durante el año 2011 se condujeron 231 operaciones de ciberespionaje de carácter ofensivo. Aproximadamente tres cuartas partes de estos ataques fueron dirigidos contra objetivos de “máxima prioridad”, situados en Irán, Rusia, China y Corea del Norte. Para acceder a redes enemigas, los espías utilizan las herramientas desarrolladas por el TAO (Tailored Access Operations), un grupo interno de la NSA que tiene por misión crear programas para infiltrarse en hardware de red utilizando software capaz de “sobrevivir” a las actualizaciones de sistema y con la capacidad para acceder a otros dispositivos conectados a la red en la que operan (Engadget, 31/08/2013). 5.5.4. Criptografía

¿Es el encriptado una solución para contar con mayor seguridad y protección de las comunicaciones personales? Hasta 1976, el cifrado de información era algo que sólo hacían los gobiernos, pero el invento del “cifrado de clave pública”, de Martin Hellman y Whit Diffie, de la Universidad de Stanford, ofreció la oportunidad de que la gente común pudiera comunicarse de manera segura. Luego Phil Zimmermann desarrolló el programa de cifrado PGP que terminó distribuyendo gratis en las primeras épocas de internet. Para finales de la década de 1990, el cifrado ya era corriente en muchos ambientes y está presente hoy en todas partes: en las consultas y operaciones bancarias, en las compras en línea, y en las llamadas por celular (G. Corera, BBC Mundo, 24/03/2014). Pero si cifrar las comunicaciones puede ofrecer cierta protección para los contenidos, los metadatos (de donde vienen, adonde van, etc.) siguen siendo accesibles para los programas de espionaje, a menos que se usen redes privadas (VPN) o sistemas como TOR (ver Cap.3). 180


5.6. Derechos de autor Con las nuevas tecnologías ha aparecido la descarga ilegal de obras musicales, cintas de cine y libros digitalizados: ha surgido así el tema de la piratería y de la comercialización de los derechos de autor o, más ampliamente, de la protección de los derechos intelectuales. El problema no debe ser restringido a la música, los vídeos y los “e-libros”: es propio de todo lo que se publica en la web, desde el presente texto a las fotos que subí a Flickr o a lo que intercambio por P2P. La piratería digital, sea de música, películas o juegos, se ha convertido en un fenómeno global y en la causa de acérrimas disputas legales y propuestas de legislaciones más o menos intrusivas. 5.6.1. Legislación

La problemática de los derechos de autor nació a raíz de la multiplicación de obras por medio de la imprenta. La primera norma al respecto fue el “Estatuto de la Reina Ana”, aprobado por el parlamento inglés en 1710. Estableció un plazo de copyright de 14 años, renovable por una vez si el autor se mantenía con vida. En los Estados Unidos se promulgó la primera Copyright Act en 1790, fijando el mismo plazo. En Francia, la primera ley fue aprobada en 1791. La ley estadounidense, al mismo tiempo que fue extendiendo los plazos de vigencia, desarrolló posteriormente una doctrina que flexibiliza la protección: la de “fair use” o uso razonable, que permite la utilización de una obra con propósitos de crítica, realización de comentarios descriptivos, noticias, enseñanza e investigación. Esta doctrina ha sido aceptada y aplicada en numerosos países y es la que domina hoy en internet pero, en modo alguno, autoriza las retransmisiones de reproducciones íntegras por parte de terceros ni la piratería. Las reproducciones íntegras solo deben ser consideradas legítimas cuando quien haya adquirido legalmente una quiera realizar un respaldo (cosa esencial en materia de informática) o la quiera pasar de un dispositivo a otro. Sin embargo, ésto es cosa que algunos productores no quieren aceptar y han llevado su lobby a favor de la interdicción de este procedimiento a tal punto que los proyectos de ley de algunos países prohíben totalmente todo tipo de traspaso, olvidando que para visualizar -o

181


escuchar- una obra en un computador se debe descargar ahí el archivo correspondiente (cosa que este tipo de ley haría ilegal). Uno de los proyectos de ley que ha generando más polémica ha sido la ley norteamericana SOPA, siglas que significan “Stop Online Piracy Act”, que propuso que se pudiera censurar cualquier sitio web del mundo que sea sospechoso de facilitar la infracción de derechos de autor, como podía ser el caso de servicios como YouTube, Twitter o hasta Facebook, incluyendo cualquier sitio web donde un usuario deje un enlace a un archivo “pirata”. En 2013, AGCOM (la asociación italiana independiente que ejerce de autoridad en las telecomunicaciones) ha remitido a la Unión Europea un borrador de una nueva regulación que pretende acabar con la piratería de raíz (Genbeta, 30/10/2013). En diciembre del mismo año, comandados por el Instituto Mexicano de la Propiedad Intelectual, dos diputados han presentado una iniciativa por medio de la cual el gobierno mexicano castigaría la reproducción, comunicación o transmisión de obras protegidas con derechos de autor en internet. De hacerse efectiva la ley, el gobierno mexicano tendría potestad de sancionar con multas que van desde los treinta hasta los veinte mil días de salario mínimo a quienes hagan reproducción o distribución no autorizada de obras protegidas con el derecho de autor. También podría penar con hasta seis años de cárcel a los administradores de webs que hagan reproducción de dichas obras y bloquear el acceso a webs que distribuyan estos contenidos (Alt1040, 4/12/2013). En España, es conocida la ley “Sinde-Wert”, aprobada en 2011, que regula la comisión de propiedad intelectual para el cierre rápido de páginas web que vulneren la propiedad intelectual sea ofreciendo contenidos ilegales sea prestando servicios de intermediación. De este modo permite actuar contra páginas web de enlaces hacia contenidos protegidos, siempre que se “actúe con ánimo de lucro” o “sea susceptible de causar un daño patrimonial al titular” (El Mundo, 30/12/2011). La Fiscalía General del Estado propuso además en su Memoria Anual de 2013 introducir en el Código Penal la pena de prisión de seis meses a dos años para los responsables de las páginas de enlaces que facilitan el acceso irregular a contenido protegido sin contar con permiso o autorización por parte de los titulares de los derechos de autor. El Ministerio Fiscal quiere que se incorpore al artículo 270 del 182


Código Penal esta figura, que actualmente está cuestionada por “la dificultad de encajar este comportamiento en algunas conductas que este artículo sanciona” (Noticiasdot.com, 16/09/2013). Francia adoptó una ley que contempla cortar la conexión a quienes persisten en hacer descargas ilegales después de varios avisos. ¿Es ésta la solución? ¿Ha de seguir indefinidamente vigente el modelo del copyright, que tiene ya (y solo) 300 años de vida? Un problema anexo es el de los “agregadores” o páginas que acumulan enlaces en torno a determinados temas, como los buscadores (Google Search, Bing, etc.) y selectores de noticias (como Google News). En diversos países de Europa, como España, Alemania y Francia, las asociaciones de periódicos han sido los principales denunciantes, deseosas de que se les pague por las citas recopiladas. La ley española les ha dado la razón; de ahí el nombre de “tasa Google” que se ha dado al canon que sería aplicado. Y de ahí también surgió la “Coalición Prointernet”, que agrupa a gigantes como Google y otros buscadores y empresas más pequeñas y que defiende el derecho a citar libremente, junto con el señalar el beneficio que supondría dirigir lectores hacia los sitios enlazados. Una dificultad mayor, en España, es que se estableció que dicho canon sería irrenunciable, lo que afectaría a los medios que desean aparecer en los agregadores sin obligación de pagar por ello (El País.es, 28/05/2014). En Francia y Bélgica, Google no paga por colocar enlaces a los contenidos de los periódicos pero acordó pagar un monto fijo a un fondo especial para ayudar a los medios a afianzar su presencia online (IBLnews, 8/02/2013). En Alemania, la ley deja claro que los buscadores pueden publicar “palabras individuales o pequeños recortes de textos como titulares”, sin incurrir en ningún costo pero tendrán que pagar por el uso de piezas de contenido más largas. Las editoriales, sin embargo, no está satisfechas y pidieron una orden judicial que obligue a los buscadores a pagarles el 11% “de las ventas totales, incluyendo las del extranjero” que provengan “directa e indirectamente de publicar extractos de periódicos y revistas en línea”. ¿Pero cuáles ingresos si las páginas de enlaces no incluyen publicidad? (FayerWayer, 20/06/2014).

183


5.6.2. El control de derechos en la web

Es evidente que la piratería de contenidos ha creado grandes problemas a importantes industrias como las de la música y del cine, pero éstas tienen una enorme fuerza para defenderse y la han aprovechado para hacer lobby ante los legisladores de todos los países. El ranking mundial del pirateo de cine lo encabeza Rusia, con 21.838.378 descargas (14,4 por ciento), seguido por Estados Unidos, con 12.511.713 descargas (8,33 por ciento); Italia, con 10.574.981 (7,04 por ciento), Brasil, con 8.731.485 (5,81 por ciento) y en quinta posición España con 6.304.205 (4,20%) archivos compartidos, según un estudio realizado por MarkMonitor sobre monitorización de piratería en Internet entre el 2 de diciembre de 2013 y el 1 de junio de 2014 (Noticiasdot.com, 24/06/2014). La presión ha sido tal que el World Wide Web Consortium (W3C), organismo encargado de fijar los estándares de la web, aceptó oficialmente la propuesta de integrar una función de DRM (Digital Rights Management) dentro de la nueva versión del lenguaje Html (HTML5) que se usará en los sitios web para facilitar la presentación de contenido multimedial interactivo (FayerWayer, 4/10/2013). Las anteriores ediciones de HTML eran más limitadas en cuanto a soporte de contenidos que no fueran puros de la web, pero el HTML5 hace que la web sea mucho más versátil. Con este estándar, los navegadores pueden prescindir de las tecnologías que cedían el control a un tercero (como el Flash de Adobe y el Silverlight de Microsoft). La medida fue controvertida, ya que según los críticos representaba una ruptura con la idea fundamental de una web libre y abierta. Los principales navegadores aceptaron la medida, menos Mozilla, el desarrollador de Firefox, navegador de código abierto. Pero el martes 14 de mayo 2014, Mozilla anunció su decisión de desistir de sus objeciones, y sumarse a la iniciativa. “La mayoría de nuestros competidores, y la industria de los contenidos, han optado por acoger la especificación EME [la forma de verificar los DRM] de W3C. Por lo tanto, no teníamos otra alternativa que seguirles, para que así nuestros usuarios también puedan acceder a los contenidos que desean”, escribió el director tecnológico de Mozilla, Andreas Gal, en su blog, sin esconder su frustración porque este sistema se contradice con la política de código abierto de Mozilla (Diario TI, 15/05/2014).

184


La Electronic Frontier Foundation (EFF) denunció las posibles consecuencias en su blog oficial: “[La EME podría llevarnos] a una web en la que no podremos copiar y pegar texto; en la que nuestro navegador no puede ‘Guardar como...’ una imagen; en la que los usos ‘permitidos’ de los ficheros guardados se monitorizan más allá del navegador; en la que Javascript está sellado en tumbas opacas; y quizás incluso en la que no podríamos ‘Ver el código fuente’ de algunos sitios web, y sería una web muy distinta a la que tenemos hoy en día. Es una web en la que los agentes de usuario y los navegadores deben navegar por un nido de obligaciones forzadas cada vez que visitan una página. Es un lugar en el que el próximo Tim Berners-Lee o Mozilla, si tuvieran que crear un navegador de cero, no podrían consultar los detalles de todas las tecnologías web. Tendrían que negociar y firmar acuerdos de cumplimiento con un puñado de proveedores DRM para poder cumplir los estándares de forma completa e interoperable.” (EFF, 15/05/2014). También ha reclamado que el software de DRM es un método ineficaz para reducir la piratería de contenido protegido por derechos de autor. Su campaña (imagen anexa), sin embargo, no ha logrado frenar la iniciativa. Para Tim Berners-Lee, lo importante es “poner al usuario en primer lugar”, pero hay diferentes tipos de usuarios: “los que quieren ver películas de gran presupuesto en casa” y “los que quieren experimentar con el código”, concluyendo que “La mejor solución sería una que satisface a todos ellos, y seguimos tratando de encontrarla. Si no podemos hallarla, buscaremos soluciones que hagan el menor daño a estas y otras necesidades ya expresadas por parte de usuarios, autores, implementadores y otros en el ecosistema. Si se debe usar una protección de contenidos de algún tipo en los vídeos, es mejor que se discuta en abierto en el W3C, mejor para todos que usemos un estandar abierto lo más interoperable posible, y mejor que se encuadre en un navegador que pueda ser de Código Abierto, y disponible en un ordenador de propósito general, en lugar de estar solo disponible en un dispositivo de propósito especial.” (Xataka, 16/05/2014).

185


5.6.3. Diferentes problemáticas

La problemática se ha ampliado sin duda debido al proyecto de Google de digitalizar libros (ya dispone de más de 10 millones de títulos). Se proponía inicialmente hacerlo con todos los libros posibles pero, debido a las leyes de copyright, debió limitarse a los libros de dominio público (derechos de autor vencidos) y “huérfanos” (sin herederos conocidos) así como los que las editoriales aceptan comercializar digitalmente. Este proyecto ha sido fuertemente rechazado en Europa, especialmente por editores y bibliotecas. Sin embargo, se debe tener en cuenta que el 90% del patrimonio literario mundial no se encuentra disponible en el comercio (según Viviane Reding, comisaria europea). ¡Bienvenida, entonces, la digitalización, conservadora y difusora de la cultura! ¿Cuál sería la razón para oponerse a esta tarea? Sin duda el riesgo de monopolio comercial y de “explotación de los consumidores”. Google se quedaría con el 37% de los beneficios por libro vendido, en el caso de obras con derechos. ¿Pero con cuanto se quedaría si no tiene que pagar a otros? Otro riesgo, que inquieta sobre todo -al parecer- a los franceses (y quizás también a intelectuales de otros países) es la apropiación de las fuentes culturales por un dueño americano. Éste es un tema de política cultural que podría tener, efectivamente, facetas complejas. Pero nadie impide que empresas de otros países hagan, para su cultura, lo que hace Google Books en los Estados Unidos. Para el usuario, no importa donde esté guardada la obra que le interesa ni quien lo hizo: internet no conoce las fronteras y solo le importa poder acceder a la obra sin pagar un costo demasiado alto. (Aunque todos esperen la gratuidad, es evidente que ésto es imposible). Los gobiernos podrían, para ello, dirigir recursos hacia las bibliotecas, como lo hace Chile con su “Biblioteca Virtual del Bicentenario” y España con la “Biblioteca Virtual Miguel de Cervantes” o el Proyecto Gutenberg. Pero, al parecer, pocos están en condiciones de competir con los bajos costos y la masividad (¿rapidez?) del procedimiento de Google, al punto que algunos (como se lo planteó la Biblioteca Nacional de Francia) prefieren confiar el proceso a esta empresa. Llegamos a lo que Yann Moulier-Boutang llamó el “capitalismo cognitivo”. Al hacerse Google cargo de la digitalización de obras agotadas (y otras) surge otro problema, generalmente desconocido: el de la fiabilidad de los meta-datos (como

186


los que las bibliotecas conservan en sus fichas) que, según ha sido demostrado, son muchas veces equivocados, lo cual induce a error a todo historiador o investigador que los quiera utilizar (O.Ertzscheid). Nuevamente, aquí, podríamos apelar a las bibliotecas, que saben hacer mejor este trabajo ... pero no tienen los recursos de Google. Queda aún otra duda: Google sabrá quién lee qué, por cuanto exigirá una cuenta personal en sus sistemas para acceder a las compras, aunque no a meras búsquedas y consultas de alguna página (en cuyo caso registra al menos el IP, navegador y datos de “cookies” no precisados). Aquí también aparece el tema de la pérdida de privacidad. ¿Alguien (partiendo por esta misma empresa) podría aprovecharse de ello? El reglamento descarta el uso por terceros pero no parece claro el uso “para fines del mismo servicio” y se indica que “se conservarán los datos por algún tiempo”. Google ya sabe lo que buscamos en la web y qué páginas visitamos a partir de las búsquedas. ¿Nos quejamos? Acerca de los derechos y limitaciones, es obviamente necesario hacer una distinción entre dos tipos de contenidos: los propiamente informativos (y estrictamente culturales) y los que corresponden al comercio de la entretención. El modelo de difusión sin duda ha de ser diferente en ambos casos. Los productos de entretención corresponden en su casi totalidad a una industria cuya existencia depende vitalmente de la comercialización y ello ha de ser reconocido y protegido en internet. Pero el caso de la información es mucho más delicado. El problema de fondo ha sido expresado por Lawrence Lessig: “¿Cómo garantizamos el pensamiento libre cuando se reclama la propiedad privada de las ideas?” (El código 2.0, p.24). Antes de la imprenta, las ideas no tenían dueños, aunque se respetaba y mencionaba -en ambientes académicos- el nombre de quienes las habían formulado. Pero no eran objeto de comercio. Se debe tomar conciencia de que, en este caso, el problema de la remuneración ha sido el resultado no de la expresión original sino de la aparición de un soporte que permitía la reproducción y del costo de este soporte. El “reproductor” (la imprenta primero y otros medios después) invierte en la producción de las copias y, en la medida en que logra ganancias por ello, hace al autor partícipe de dichas ganancias, reconociendo su rol generador de las mismas. 187


Pero si la generación de copias no tiene costo, como ocurre generalmente hoy en internet ¿de qué ganancia participaría el autor? Para la mayoría de los autores, la difusión de su producción intelectual es en cierto modo un subproducto de su función y empleo (como en el caso de los científicos e investigadores de todo ámbito). Para ellos, la web es un medio extraordinario para dar a conocer sus ideas, sus descubrimientos, en beneficio de todos. Existen ya múltiples revistas científicas que sólo se publican de forma digital. Y es probable que, a corto o mediano plazo, las publicaciones impresas serán cada vez más una solución extraordinaria. Expertos reunidos en 2009 en el taller de la Red de Bibliotecas Universitarias (Rebiun) de Salamanca estimaron que para 2014 el 25% de las publicaciones científicas serían sólo digitales (SINC, 6/10/2009). Sin duda este porcentaje seguirá creciendo con el tiempo y, probablemente, de forma acelerada dadas las necesidades de acceso y las dificultades -y costos- del transporte físico. Pero en el caso de la masificación de los e-libros, si bien existe un costo inicial de digitalización, ¿cómo limitar las ganancias de una empresa como Google o Amazon a una utilidad “razonable”? Entonces, ¿no debería buscarse un nuevo modelo, que compatibilice mejor los derechos del autor con el derecho a conocer? El mundo digital no ha quedado ajeno a esta problemática y la web ha incentivado la aparición de nuevos tipos de permisos y sistemas de protección, como la Licencia Pública General (GNU General Public License), orientada principalmente a proteger la libre distribución, modificación y uso de software, y la licencia Creative Commons (CC), que se puede aplicar a cualquier tipo de obra y es la más favorable para la difusión del conocimiento (cada vez más utilizada por las publicaciones científicas). Las licencias CC se basan en combinar distintas propiedades. Éstas son: ● Attribution (by): Obliga a citar las fuentes de esos contenidos. El autor debe figurar en los créditos. ● Noncommercial (nc): Obliga a que el uso de los contenidos no pueda tener bonificación económica alguna para quien haga uso de contenidos bajo esa licencia. ● No Derivative Works o NoDerivs (nd): Obliga a que esa obra sea distribuida inalterada, sin cambios. 188


● ShareAlike (sa): Obliga a que todas las obras derivadas se distribuyan siempre bajo la misma licencia del trabajo original. 5.6.4. La cultura como negocio

El periodista estadounidense Robert Levine ha abordado el problema en una forma particularmente agresiva al publicar un libro titulado “Parásitos. Cómo los oportunistas digitales están destruyendo el negocio de la cultura” (Ariel, 2013). “¿Quién quiere poner en marcha un negocio de música legítimo cuando es más fácil iniciar uno ilegal?”, se pregunta. iTunes es el único negocio que ha ganado dinero vendiendo música legal en la red. Google es para él el “gran villano”, por cuanto abre el acceso a los contenidos de terceros sin tener en cuenta los derechos de propiedad y amparándose en que la responsabilidad es de quienes suben los contenidos a la red. “Al ofrecer un contenido por el que no pagan, o al vender un contenido muy por debajo del precio que cuesta crearlo, afirma Levine, los distribuidores de información y de entretenimiento como YouTube y The Huffington Post se convierten en ‘parásitos’ de las empresas de medios de comunicación que invierten sustanciosas sumas en periodistas, músicos y actores; los distribuidores empujan a la baja los precios de una manera que absorbe la savia de los que crean y financian los mejores logros de nuestra cultura. El resultado es ‘una versión digital del capitalismo’, en la que los distribuidores parasitarios se llevan todos los beneficios económicos de internet, reduciendo los precios, y los proveedores de cultura se ven obligados a recortar los costes.” (El Mercurio, 10/02/2013).

5.7. El olvido Vinton Cerf advirtió en 2013 de la volatilidad de los datos digitales. Ilustra el problema de una manera sencilla: usó Microsoft Office 2011 en un Macintosh, pero no pudo leer un archivo de PowerPoint de 1997. “No voy a culpar a Microsoft”, dijo Cerf. “Lo que estoy diciendo es que la compatibilidad hacia atrás es muy difícil de mantener durante largos períodos de tiempo.” La comunidad científica acumula gran cantidad de datos de las simulaciones y las lecturas de sus instrumentos. Pero a menos que los metadatos sobrevivan y digan en qué 189


condiciones se recogieron los datos, cómo se calibraron los instrumentos y cual es la interpretación correcta de las unidades, los datos pueden perderse. Lo que se necesita, dijo Cerf, es un medio tan durable y duradero como el material que ha conservado con éxito el contenido escrito hace más de 1.000 años. Pero asegurar que las personas de los siglos futuros tengan acceso a estos datos, es “un problema difícil” (Computerworld, 4/06/2013).7 Como algo parecido podría ocurrir con la WWW, se creó una organización que trata de archivar todas las páginas que aparecen en la web: es Internet Archive (Archive.org), cuya sede se encuentra en la Avenida Funston de San Francisco. En su sitio web se pueden hacer búsquedas de material antiguo, si bien no se puede esperar encontrar todo. En 2012 sus servidores ya alojaban 10 petabytes… que seguían creciendo gracias a la funcionalidad más útil y exitosa de la Wayback Machine, creada en 2001, un buscador de direcciones URL que arroja como resultados las diferentes copias de seguridad de aquellas páginas a lo largo del tiempo, permitiéndonos así acceder a parte del contenido desaparecido, o tener “instantáneas” que recogen la evolución de una web en los últimos 13 años. Pero existe también el problema inverso: lograr la desaparición de datos indeseables. En 2012, la Comisión Europea anunció una propuesta de ley para defender el “derecho al olvido” de los usuarios en internet. Esta ley obligaría a los proveedores del servicio a acatar la normativa a no ser que tuvieran una razón “legítima” para no hacerlo. En mayo 2014, el Tribunal de Justicia de la Unión Europea respaldó este “derecho al olvido” y dictaminó que los motores de búsqueda como Google deben retirar los enlaces a informaciones publicadas en el pasado si se comprueba que perjudican a un ciudadano y no son ya pertinentes. ¿Hasta qué punto podría ser usado ésto también por políticos o corporaciones para evitar que se difunda información de interés público? La justicia europea fue muy clara al respecto, dice la BBC. “Este tipo de peticiones sólo serán aceptadas teniendo en cuenta la naturaleza de la información en cuestión, en cómo afecta a la vida privada del usuario y en el interés público que tiene disponer de esta información. De alguna forma, con este fallo, Europa está diciendo que el límite a 7

Del mismo modo, este autor, con su actual PC-Windows, no puede recuperar las versiones originales de algunos de sus libros de la década de 1990, escritos en Word en un Macintosh, con gráficos realizados en SuperPaint.

190


la libertad de información está definitivamente en toda aquella información que no le concierne a nadie más que al usuario”. (BBC, 13/05/2014). La decisión del Tribunal de Justicia ha generado mucha polémica. Por una parte, están quienes se alegran por el fallo y han comenzado a pedir al buscador que retire de sus resultados algunas de las informaciones polémicas que aparecen en las búsquedas. También están quienes han encontrado en este caso un peligroso antecedente para el ejercicio de la libertad de opinión y expresión. Y es que en el tema del derecho al olvido convergen la protección de datos personales, su impacto en la privacidad de los usuarios de internet y la libertad de expresión en línea. Hay muy buenos argumentos a favor de cada tema, pero resulta difícil inclinarse por privilegiar uno u otro. Pero quizás el problema inmediato más relevante es que la decisión habilita a cualquier motor de búsqueda para resolver sobre las peticiones de personas que deseen ser “borradas”. ¿Con qué criterio decidirán si una petición es válida o no? Ésto también va en contra de la política generalmente defendida de que los intermediarios (ISP, motores de búsqueda, etc.) no deberían tener jamás el poder de decidir sobre los contenidos.

191


6. Periodismo digital 6.1. Los lectores Con internet, la gente empezó a tener acceso a las noticias de una nueva manera. Aunque inicialmente, se encontró en la web con las mismas fuentes de noticias (los diarios se hicieron presentes tempranamente), en los años siguientes aparecieron nuevas fuentes: primero a través de blogs con otras fuentes y luego con las redes sociales. Pero las radios y los canales televisión también crearon sus sitios web y empezaron a publicar noticias. Así, la televisión empezó a perder algo de su preponderancia, a favor de los medios online, especialmente de los medios móviles:

Fuente: eMarketer, via SocialMedia Today, 29/06/2014

El acceso a las noticias, además, tiende a realizarse desde diversos equipos. El 39% de los usuarios móviles que acceden a las noticias desde dispositivos ahora emplea

192


dos equipos digitales y éstos suelen ser varones con menos de 45 años, según el Digital News Report 2014 (Newman & Levy, Reuters Institute, 23/06/2014). Fuera de los medios tradicionales, las redes sociales han sido las fuentes dominantes en 2013, según un estudio de Pew Research:

En el caso de España, según el informe ‘eEspaña 2014’ de la Fundación Orange, “en general, el ranking de sitios de internet de contenidos con mayor audiencia está compuesto por empresas televisivas o por diarios. El Top 10 lo lidera YouTube, con una proporción de visitantes únicos en los últimos 30 días del 48,4%, porcentaje muy por encima de la segunda página con mayor audiencia, Marca, con un 12,1%” (ver gráfico).

193


Pero sería un error atribuir exclusivamente la actual crisis de los periódicos impresos al desarrollo de la prensa digital. La Escuela de Negocios Booth (dependiente de la Universidad de Chicago) ha publicado recientemente un estudio para aclarar la relación existente entre la decadencia de la prensa de papel y el auge de la prensa digital. El estudio, llevado a cabo por el profesor M. Gentzkow, desmiente que la gente ha dejado de leer periódicos impresos para leer publicaciones digitales: Gentzkow detectó que la popularidad de los periódicos ya había empezado a decaer en 1980, y que el declive desde entonces se ha mantenido constante (TICbeat, 21/06/2014). A inicios de 2014, mientras 137 millones de adultos norteamericanos leían un diario en papel en una semana promedio, 145 millones lo hacía online y 43 millones lo hicieron usando una tableta o un teléfono en 2013 (ver gráfico siguiente, proporcionado por la Newspaper Association of America, NAA). El New York Times tiene una audiencia de 800.000 en la web. Los regionales más exitosos como el Boston Globe o el Star Tribune, tienen unos 30.000.

Adaptado de:

www.mylife.com

194


La mitad de los norteamericanos se informan hoy de las primicias (breaking news) a través de redes sociales y 65% de los periodistas y editores de medios tradicionales las utilizan tanto para informarse como informar a su audiencia. 41% de los adultos del Reino Unido obtienen sus noticias de Internet por web o apps de acuerdo a la investigación del regulador de medios Ofcom, superando a los que lo hacen a través de periódicos impresos (40%). Las cinco fuentes más utilizadas son televisivas, con BBC One a la cabeza (53%), seguida de ITV y asociados (33%), y otros canales de la BBC (The Guardian, 2/07/2014). Sin embargo, los diarios en América Latina aún mantienen una circulación moderada y su crecimiento en venta de publicidad perdura, según un reciente estudio de la Asociación Mundial de Periódicos y Editores de Noticias (WANIFRA). La circulación aumentó aquí en 7,5% y la publicidad en diarios impresos aumentó en 49,9% en los últimos cinco años (WAN-IFRA, 10/06/2014). En España, la lectura mensual de periódicos en papel prevalece aún con un 82%, frente al 69% en el caso de la prensa online, aunque si se tiene en cuenta la frecuencia diaria, la cosa cambia y se produce un empate técnico entre ambas modalidades. Según datos de la Asociación española para la Investigación de Medios de Comunicación (AIMC), más de la mitad de los internautas leen ambos soportes al mes, concretamente el 58,3% reconoce haber accedido a algún diario en papel y también online, mientras que sólo el 7,4% no ha leído ningún tipo de diario en el mismo período (PRinternet, 18/03/2014). Pero `El País´, que vendía 400.000 copias en 2007, cayó a 267.000 en avril 2014, y despidió 129 empleados, mientras ABC despedía 288 y El Mundo 400 (The Guardian, 12/06/2014). En el caso de la prensa, la audiencia española ha sufrido una disminución en el número de lectores tanto en formato digital como en el de papel pero la brecha entre el formato digital y el papel se ha incrementado (ver gráfico).

195


Fuente: informe ‘eEspaña 2014’ (M.Gimeno & col.)

Según el estudio Digital News Reports 2014 de Reuters, el 38% de los internautas españoles se entera de la última hora en redes sociales. Las redes sociales más usadas para obtener noticias son Facebook (50%), WhatsApp (25%), Twitter y YouTube (20% c.u.). Los buscadores son la tercera modalidad de acceso, con un 35% pero el 23% corresponde al mero acceso a sitios web decididos de antemano. Las alertas y los boletines por correo electrónico son un recurso empleado por el 12% de los usuarios. Los medios digitales de noticias más consultados por las personas que respondieron en la encuesta son los sitios web de El País (31%), El Mundo (27%), el deportivo Marca (22%), Antena 3 Noticias (19%), y 20 Minutos (18%). Los sitios web de diarios se confirman como referencia informativa, si bien el principal portal informativo de televisión del grupo Atresmedia aparece en cuarta posición, y el sexto lugar es la web de LaSexta Noticias, del mismo grupo. Seguidamente, en séptimo lugar, se situaría el portal de noticias de RTVE.es (13%). (UNAV, Reuters Institute Digital News Report 2014).

6.2. Cambios económicos 6.2.1. Ingresos

La preferencia del público por los medios digitales se refleja en la forma en que la publicidad se ha ido desplazando hacia estos medios, siendo los más afectados los diarios impresos de Estados Unidos como muestra la siguiente estadística de 196


PricewaterhouseCoopers para el Interactive Advertising Bureau (IAB) de abril 2014, pero sus versiones digitales se benefician mucho menos de este cambio.

Fuente: Bussiness Insider, 24/05/2014

Desde el nacimiento de internet, la industria de la prensa en los Estados Unidos ha perdido 4.000 millones de dólares (E.Arriagada en CNN Chile, 13/03/2014). Desde 2005, la inversión publicitaria en los diarios americanos ha decrecido permanentemente, mientras ha crecido casi en la mismo proporción en internet. Sin embargo, los diarios no parecen ver que se produzca esta compensación con sus ediciones digitales. Apenas les habría llegado un 1% en 2013 según la Newspaper Association of America, mientras había crecido entre 18 y 31% entre 2004 y 2007 (K.Doctor, 2014). “Lo que antes era la gran esperanza de crecimiento es ahora un globo reventado”, dice K.Doctor. Los diarios (americanos) obtienen solo el 8% de la “torta” publicitaria, mientras obtenían 20% antes del surgimiento de la web (y con éstos financiaban el 80% de su producción). Los recursos que los periódicos pueden obtener de la publicidad son muy inferiores en el caso de las ediciones digitales porque se trata de banners o pequeños cuadros, mucho más económicos

197


que las páginas impresas, y a los cuales se presta menos atención. Y este tipo de publicidad se dirige mucho más hacia las corporaciones digitales como Facebook y Google. ¡Éstas dos controlan el 50% de la publicidad digital en los Estados Unidos! (The Atlantic, 9/06/2014). Así, el crecimiento de la publicidad digital y el financiamiento mismo de la edición se ha convertido en un reto cada vez mayor para todas las empresas periodísticas. La inversión publicitaria en las ediciones digitales de los diarios españoles ha acumulado el 10% anual (2013-2014). Con todo, el peso digital de las grandes cabeceras, por facturación de publicidad, sigue siendo el 20% de sus ingresos en promedio según datos de la AEDE. Sobre la media están ‘El País’ (30% sobre ingresos totales), ‘El Mundo’ con 31,6% y 'Marca' con 45% (PR noticias, 2/07/2014). “Compañías de medios tradicionales que estaban luchando con los anuncios en línea que producían una décima parte de los ingresos del medio impreso, ahora tienen que cruzar un abismo increíble: 1.000 dólares en publicidad impresa se convierten en 10 en el medio móvil. Tienen que averiguar cómo hacer la transición a un modelo de negocio que ofrece una décima parte de los ingresos por publicidad” dice Tom Foremski en ZDnet (8/06/2014). La situación es tal que diversos medios han tenido que reducir su plantilla de personal. Así, por ejemplo, los editores de Time planeaban reducir sus costos editoriales en un 25% en 2014. En 2013, la empresa anunció el despido de 500 trabajadores, cuando tenía unas 7.800 personas, y una cantidad similar ya había sido despedida el año anterior (Clases de Periodismo, 9/06/2014, citando a The New York Times). Existiría sin embargo un error en la forma en que se evalúa la publicidad digital. Según el profesor M. Gentzkow, de la Escuela de Negocios Booth (dependiente de la Universidad de Chicago) es un error considerar que la publicidad online es más barata que la publicidad impresa: la falsa percepción se debe a que se comparan unidades distintas y no comparables (TICbeat, 21/06/2014). El no obtener los mismos ingresos ha de ser entendido como propio de un cambio de medio de comunicación y no como “otra forma de inserción” (como si el espacio en internet fuera otro tipo de página del diario).

198


Ésto está llevando a nuevas experencias como la del diario británico Financial Times, que está probando un nuevo sistema de venta publicitaria. Mientras que hasta ahora los anunciantes pagaban generalmente a los editores en función del número de veces que los usuarios acceden a la web en la que está su anuncio, el Financial Times propone que el precio se ajuste al tiempo que una persona pasa viendo la página que contiene esa publicidad. El pago por el número de veces que una persona entra en una página, teniendo en cuenta que el 38% de los usuarios salen inmediatamente después de que se haya cargado, no es sostenible, dicen. Para ellos, la clave radica en el tiempo que un usuario va a estar expuesto a la publicidad. Cuando alguien se queda en una página durante más tiempo, se deduce que es más propenso a involucrarse con el anuncio y a retener el mensaje. Pero, por el momento, los resultados no son concluyentes. La compañía Upworthy, que basa su razón de ser en la creación de titulares llamativos para obtener el mayor número de clics, también se ha pasado a la venta de anuncios en función de los minutos de atención (Media-Tics.com, 25/06/2014 / Business Insider, 18/06/2014). Pero aquí puede haber otro error: dedicar más tiempo a leer una página no es lo mismo que exponerse más tiempo a la publicidad que contiene. 6.2.2. Capital de riesgo

A pesar de esta situación, los inversionistas de riesgo norteamericanos se están interesando por la prensa digital. Los capitalistas de riesgo como Ken Lerer han invertido cerca de 100 millones de dólares en negocios de contenidos digitales desde el comienzo de 2013, según K.Doctor. Inversores corporativos han agregado la misma cantidad y el mismo Rupert Murdoch ha puesto 70 millones en Vice Media en agosto de ese año. Pierre Omidyar puso 50 millones de dólares en la nueva cadena de medios de comunicación, First Look Media, con una promesa de 250 millones adicionales. Son por lo menos mil millones de dólares anunciados en 2013. ¿Qué fue lo que convenció a Lerer para creer que el periodismo digital podría ser un buen negocio? Principalmente el rápido crecimiento del Huffington Post en que había invertido 2 millones de dólares. Y también el porcentaje de hogares estadounidenses con una conexión de banda ancha, que se ha disparado del 28 por ciento en 2005 hasta el 78 por ciento a principio de 2014.

199


Lerer es también presidente de la junta de BuzzFeed, compañía que tiene un financiamiento de 50 millones de dólares en capital de riesgo y creó puestos de avanzada en Berlín, Londres, Ciudad de México, Bombay, París, Sao Paulo, Sydney y Tokio. El resultado de esta internacionalización ha sido un explosivo crecimiento de 130 millones de visitantes únicos y más de 100 millones de páginas de vídeo vistas cada mes. “La gran oportunidad para la industria de las noticias en los próximos cinco a diez años es aumentar cien veces el tamaño de su mercado y bajar los precios diez veces” dijo el gurú digital Marc Andreessen. Lo que estos capitalistas de riesgo creen es que hay una enorme oportunidad para aquellos que pueden encontrar la manera de hacer fluir una corriente interminable de contenido a través de los canales digitales que han sido creados. Lerer lo compara con la revolución del contenido que se vió a finales de los años de 1970 y principios de 1980 con el desarrollo de los canales de televisión por cable (K.Doctor, en Politico.com, 1/05/2014). También pueden haber tenido a la vista el éxito del Financial Times. Es el primer gran periódico impreso que ha conseguido convertirse en un diario sobre todo digital. En el verano de 2012, sus suscriptores digitales sobrepasaron por primera vez a los impresos y ahora la diferencia es notable. Tiene más de 415.000 abonados digitales. Sus ingresos online son ahora el 63% del total y han conseguido compensar la caída de la difusión en papel, que ha bajado de 504.000 a 237.000 ejemplares en poco más de una década. Lo esencial para ellos es aprovechar las herramientas de la web para “contar las historias de manera más poderosa y creativa gracias a la tecnología” (Nohacefaltapapel, 4/05/2014). Y si la situación es complicada para los periódicos impresos que se pasan a la fórmula digital, podría serlo aún más en el futuro. Muchas empresas tecnológicas están poniendo ahora sus ojos en la información, especialmente las redes sociales: Facebook, Yahoo y Linkedin se han fijado en el valor de las noticias y se han embarcado en su publicación. Linkedin, hace algún tiempo, compró Pulse, un popular software de agregación de contenidos, y hace poco compró Newsle, una startup estadounidense que trabaja con un sistema automático de envío de alertas informativas. Yahoo compró Summly, una app de noticias para móvil con la que lanzaron recientemente Yahoo News Digest. Facebook lanzó un experimento llamado FN Newswire, impulsado por la empresa Storyful. Y Google News lleva ya mucho tiempo. Comparten una visión de las noticias ligadas a las redes sociales 200


sea para recolectarlas desde ahí sea para llevarlas ahí desde grandes medios. (Tecnoxplora, 18/07/2014). 6.2.3. Los muros de pago (paywalls)

Como parece haber quedado claro que la publicidad no podría dar suficientes ingresos a medio y largo plazo, los diarios han ido explorando los llamados “muros de pago” (paywalls) es decir el acceso pagado a parte o a la totalidad de su contenido. Desde que empezaron estos “muros”, sobre todo en Estados Unidos, hay más pruebas de que funcionan y de que pueden aumentar los ingresos por ventas entre un 3% y un 10% en el primer año y entre 2% y 5% en el segundo y tercer año, dice K.Doctor, experto en el tema. El mejor muro, dice, es el de 5, 10 ó 15 artículos gratis al mes en una web abierta aunque lo más inteligente, cree, es que el sistema de pago sea por artículos o sea por ‘acceso completo’, es decir la oferta más simple, con un precio único o dos, con acceso completo a todas las plataformas. Es importante tener buenas aplicaciones para tabletas y móviles y tener una única base de datos de lectores para saber quiénes son los lectores en papel y en digital y cómo se superponen (K.Doctor, entrevistado por E.Suárez, en Nohacefaltapapel.com, 12/04/2014). Según el Digital News Report 2014 del Reuters Institute, la proporción de los lectores que están pagando por noticias a través de una suscripción se ha incrementado de 43% a 59% en el último año, comparado con un pago por un día o por el acceso a la aplicación móvil. Las países con la mayor cantidad de usuarios interesados en pagar por noticias son Estados Unidos, Japón, regiones de Reino Unido, e Italia. En tanto, hay menor interés en España y Alemania. La mayoría de las suscripciones son para los diarios más conocidos o para aquellos que entregan noticias financieras. En los Estados Unidos el 30% de las suscripciones pagadas son por el New York Times, el 32% para un periódico local o de la ciudad, y el 16% para el Wall Street Journal. El New York Times ganó 32.000 nuevos suscriptores digitales en el segundo trimestre de 2014, según la compañía, llegando a un total de 831.000 suscripciones digitales, los ingresos correspondientes subiendo en 13,5% pero sin poder compensar la baja de ingresos publicitarios totales (-6,6%) y -21% de beneficios operativos (Poynter.org, 29/07/2014).

201


The Times en el Reino Unido, Bild en Alemania, Le Monde en Francia, y El Mundo en España están a la cabeza en las noticias pagadas en sus países. En Alemania, la principal editorial Axel Springer ha reclutado a más de 150.000 suscriptores para su servicio premium Bild Plus en los seis meses desde su lanzamiento en junio de 2013. Más de un tercio también se han inscrito en un servicio de información sobre la Bundesliga a través de Bild. En el Reino Unido, el popular periódico Sun ha seguido un modelo similar y atrajo a más de 100.000 nuevos suscriptores digitales. El Financial Times obtuvo un récord de circulación gracias a las suscripciones digitales al registrar una tirada récord de 677.000 lectores, de los cuales 455.000 son suscriptores digitales, un aumento del 13% en un año (Media-tics, 31/07/2014). En la mayoría de los países el número de lectores de pago por cualquier noticia es de alrededor de 10% de los usuarios en línea y en algunos casos menos que eso (ver gráfico siguiente). Pero entre aquellos que pagan por las noticias, los que tienen una suscripción de noticias en línea ha crecido desde el 43% al 59%, en comparación con los que pagan por una sola o pagan un pase de un día o una descarga de app (Newman & Levy, pp.56-58)

Pero un problema difícil de superar es que los lectores parecen dedicarles muy poco tiempo. Aunque encontramos estudios acerca del tiempo de lectura dado a cada artículo, la preferencia por lo insertos breves en las redes sociales es clara. Y también se sabe que la selección de artículos leídos es limitada (sólo el 2% lee más 202


de 25 artículos en El Mundo.es, observó E. Arriagada). “Los sitios de noticias sólo atraen audiencias que hacen visitas cortas”, dice (Congreso de Periodismo Digital, Foro de Periodismo Argentino, 9/05/2014). También influye la costumbre adquirida por los jóvenes de que todo en internet es gratuito. “Los jóvenes no van a pagar nunca”, dice Arriagada. Pero el trabajo de los periodistas no es gratuito: producir un original es “tan caro como en la Edad Media”, pero la reproducción no cuesta nada y ahí radica el problema de fondo. Otro problema es que las noticias se difunden hoy por muchos canales diferentes. Con ello “las noticias ya no tienen valor” dice Ismael Nafría, jefe de innovación digital de La Vanguardia. “Todo el mundo ya sabe lo que está en las noticias. No es imposible que la gente vaya a pagar, pero no va a pagar por algo que no vale la pena. Lo único que vende es la calidad”, agrega (The Guardian, 12/06/2014). Como lo recuerda Vicente Lozano en El Mundo (20/07/2014), hasta el Siglo XVI, la comunicación era “líquida” (oral, de boca a boca, y confiada a la memoria humana) pero “se solidificó” con la imprenta. Y la World Wide Web devolvió la liquidez a la información... trayendo las penurias a los periódicos. “¿Cómo se le explica a alguien que puede acceder a 600.000 libros pagando 7,40 euros (9,99 dólares) al mes y que leer los 30 ejemplares de este periódico en ese periodo le cuesta 46,40 euros? Cierto que son actividades distintas, pero una vez más vemos cómo internet devalúa la mayor parte de los negocios por los que circula”, reclama Lozano (El Mundo, 20/07/2014). Los datos recogidos acerca de los lectores a través de los muros de pago -junto, también, con los obtenidos en las redes sociales asociadas- se acumulan conformando “big data” que no todos aprovechan. Algunos diarios, como el británico Daily Mail, revisan constantemente estos datos y los analizan para optimizar la experiencia del lector. Aprender de la conducta y de los intereses de los lectores es indispensable no solo para sobrevivir, sino ganar en la red. Hoy se requiere tanto agilidad para recoger y transmitir la noticias, como agilidad en detectar y adaptarse a las cambiantes conductas de los destinatarios. La sola información acerca de las noticias más leídas permite rediseñar con facilidad una portada de modo que satisfaga mejor a los lectores.

203


Pero si de relacionarse mejor con los suscriptores se trata, es conveniente considerar y adecuar el tratamiento de los “little data”, es decir de los datos específicos de cada suscriptor. Jeff Jarvis, periodista americano que fue el director fundador de la revista Entertainment Weekly, opinaba que los nuevos medios debían medir lo que hacen sus usuarios para darles servicios de forma personalizada (Arriagada, 2014a). Analizando los “little data”, se puede hacer fácilmente un periódico ajustado a los deseos de cada lector. Bastaría que el suscriptor registrase sus intereses (p.ej. bajo la forma de un conjunto de descriptores) para ofrecerle -sin mayor dificultad- una portada personalizada con los titulares de las noticias de su interés, eventualmente al lado o antes de los titulares destacados del día seleccionados por el propio diario. Es incluso posible registrar tales intereses sin preguntar nada, anotando simplemente los descriptores de las noticias que lee y su frecuencia. En la base de datos basta para ello asociar a la tabla de suscriptores una tabla con los descriptores que le interesan -sean elegidos por él, sea determinada a partir de sus lecturas más frecuentes- y conectarlas a la base de datos de noticias a través de una tabla de descriptores de éstas (ver detalles en Colle, 2009, p.13). En la ilustración que sigue mostramos los cambios que con ello se producen en el proceso informativo principalmente desde

el punto de vista del lector. Las flechas rojas muestran el beneficio de eficiencia en la lectura. En la conexión, se mantiene la posibilidad de acceder a otros contenidos

204


para “vitrinear”, si el lector lo desea (vía enlace a portada común o menús comunes).

6.3. Del medio tradicional a la web y las apps 6.3.1. Cambios técnicos

La televisión sigue siendo el medio principal para recibir noticias. La recepción en línea (PC o móvil) es la segunda forma más importante de acceder a las noticias, con un altísimo porcentaje en España y Brasil, especialmente comparado con el bajo porcentaje del medio impreso (preferido solo por los de mayor edad), nos indica el Digital News Report del Reuters Institute, que analizó la situación en diez países de diversos continentes (Newman & Levy, p.44).

En los países considerados, el 58% de la muestra utiliza un smartphone (frente al 46% el año 2013) y el 37% dice que lo utilizó para las noticias al menos una vez en la última semana (frente al 31% antes). Uno de cada tres (34%) utiliza una tableta, con un 20% de media de usarlo para las noticias (ibidem, p.59). La investigación muestra que, por el momento al menos, la mayoría de los usuarios siguen aferrados al texto (artículos tradicionales y listas), aunque encontramos que las imágenes y los vídeos son relativamente más importante en los EEUU, Brasil, y países como Italia y España (ibidem, p.15). En los Estados Unidos, la televisión pasó de un 41% a un 36% de uso del tiempo digital, y los periódicos en papel cayeron de 3,1% a 1,6%. Las tabletas se han tomado los horarios propios de los medios de calidad, que son la primera hora de la mañana y la vuelta del trabajo. Ambos momentos han sido tradicionalmente los

205


más usados para leer buenos periódicos y revistas (E.Arriagada en El Mundo/Orbyt, 29/04/2014). El surgimiento del acceso móvil plantea exigencias técnicas que no pueden ser ignoradas. También lo hace el hecho de que la portada (home page) es cada vez menos la primera página a la que se accede: en dos años, las visitas han bajado a la mitad en el caso de The New York Times. Los lectores acceden directamente a otras páginas desde las redes sociales u otros enlaces. Así, por ejemplo, la lista de líderes sociales en Facebook está encabezada por Buzzfeed, el popular sitio de contenido viral, con 130 millones de visitantes únicos, pero le siguen The Huffington Post, ABC News, Fox News, NBC, IJ Review, The Guardian, The New York Times, The Blaze y Daily Mail (KPCB, 28/05/2014). Nos encontramos en medio de una revolución de la difusión de noticias durante las 24 horas. Los medios sociales parecen haber tomado las riendas del control de los medios de comunicación tradicionales e incluso de haber traído el poder al pueblo como se observó desde las famosas revueltas de la “primavera árabe” que parecieron activadas por estos medios. Pero, para la mayoría de la gente en todo el mundo, los medios de comunicación social fueron la principal fuente de noticias serias sobre lo que realmente estaba sucediendo en estos lugares, principalmente porque algunas organizaciones de noticias tenían personal en estos lugares y utilizaban las redes sociales como todo el mundo para averiguar qué estaba pasando (Social Media Today, 25/04/2014). En España, sin embargo, se ha verificado que un 50% de los encuestados por el Reuters Institute accede a medios online desde Facebook para leer noticias. Eso quiere decir que los usuarios llegan a leer las noticias gracias a que los enlaces aparecen en la red social. Facebook ya es la primera red social en España en lo que a compartición de noticias se refiere. Es fácil deducir el beneficio que Facebook puede proveer a los medios online. El 26% de los encuestados utilizó WhatsApp para compartir noticias y Twitter ocupó la tercera posición con el 21% de los encuestados. En los Estados Unidos, el 31% utiliza el smartphone para leer información online, mientras que en España el porcentaje es del 44% de los usuarios (PCactual, 13/06/2014).

206


El New York Times fue el primero en ofrecer un sitio web especial para móviles, en 2006, según la Newspaper Association of America. Este diario ha sido ahora obligado por Arthur Gregg Sulzberger, periodista del medio e hijo del editor del periódico, y un grupo de colaboradores, a repensar el futuro del medio. En un largo informe, enviado a todos los trabajadores en mayo 2014, se quejaron de que los responsables del diario “ponen más empeño en dejar el periódico en los felpudos de sus suscriptores analógicos que en poner sus artículos al servicio de sus suscriptores digitales”. Ya no basta con “colgar” las notas, vídeos, gráficos o galerías de imágenes en la web: es necesario adaptarlas a los móviles, posicionarlas en los buscadores y promoverlas en las redes sociales. Y también mantener una conversación con los lectores en los correos electrónicos y en los comentarios. El documento también indica que el diario debe mejorar en áreas que los lectores no pueden ver pero que son muy importantes: sistemas de edición, flujos de trabajo, estructuras organizativas, estrategia y contratación. El éxito del diario depende de contratar a los mejores periodistas. Pero también de dotarles de las mejores herramientas para trabajar como indica el siguiente gráfico (del informe publicado):

“No podemos simplemente convertirnos en una sala de redacción primero de la web o primero del móvil. Debemos convertirnos en una sala de redacción flexible 207


que se adapta continuamente a las necesidades del momento. Los cambios tecnológicos requieren que reimaginemos constantemente lo que es posible. Los cambios en el comportamiento de los lectores nos obligan a evaluar continuamente lo que está funcionando”, dice el informe de Sulzberger (Nohacefaltapapel, 15/05/2014). Para Montserrat Domínguez, directora del Huffington Post en España, “el periodismo cada vez va más de la mano de la tecnología y el medio de comunicación que no entienda esto, no progresará”. También aseveró que a las audiencias “no hay que darles sólo lo que quieren, sino anticiparnos a lo que quieren, sorprenderles” y un reto de la profesión es cómo convertir al usuario accidental en habitual, es decir, conseguir interesarle para que sea fiel al medio (Clases de Periodismo, 9/07/2014). En las salas de redacción de los diarios europeos, la brecha cultural que subsistía entre los medios impresos y los periodistas digitales va finalmente desapareciendo. Las dos categorías no se han fusionado por completo, pero han aprendido a trabajar en estrecha colaboración según The Guardian (12/06/2014). La incapacidad para ver la división entre “la prensa” y lo que hacen los periodistas y el no saber cómo manejarla combinando servicio y mercado es una de las razones de la actual crisis, según Timothy B. Lee de Vox.com (International Journalism Festival, 21/06/2014). Para ajustarse, los “e-diarios” deben tener en cuenta que la lectura en móbiles es muy diferente de la lectura de impresos. Se le da menos tiempo, ocurre muchas veces en ambientes que no favorecen la concentración y parece responder también a intereses más específicos. Así, una versión móvil no puede ser igual a la versión web, más próxima a la versión impresa pero también diferente de ésta. Se requiere por lo tanto una estrategia diversificada. “Las aplicaciones no van a salvar el periodismo. Es la innovación en el modelo de negocio lo que se necesita. Una nueva forma de presentar el trabajo de los periodistas es inútil sin los medios de generación de fondos para ese trabajo” dice Tom Foremski (ZD Net, 8/06/2014). Y parece imposible que estos fondos provengan de la publicidad digital. Quizás alguna forma de asociación con el comercio electrónico sea una alternativa. Es, al menos, la que eligió en 2010 el Los Angeles Times, el primero en incluir enlaces (links) de e-comercio (y no simple avisos) como una nueva forma de obtener ingresos. 208


USA Today adquirió la aplicación Curiyo que permite que el lector “pinche” en palabras del texto para obtener más noticias vinculadas al tema y a antecedentes de los mismos en una nueva ventana en la misma página web. El sistema estaba en etapa experimental en su sección Life, para PC, en junio 2014. Por su parte, The Wall Street Journal apostó a la cobertura móvil de sus periodistas con una sección llamada World Stream. Ahí, sus corresponsales de diversos países publican vídeos cortos que han sido grabados con sus móviles con la etiqueta “WSJ Mobile Video” (Clases de Periodismo, 26/06/2014). La editora del diario The Washington Post, Cory Haik, considera que el periodismo que se practica ahora debe incluir conocer de dónde vienen los usuarios que visitan la página web, así como descubrir su ambiente de vida. Y busca que la presentación de noticias tenga un enfoque en lo móvil primero. Por ello prepara especiales en apps.washingtonpost.com. También quiere que su enfoque de narración social se complemente con productos sociales. A raíz de ello lanzaron Social Show, que muestra los detalles de la conversación sobre una noticia (Clases de Periodismo, 13/06/2014). CNN, cuyo tráfico web es de 67 millones de visitantes únicos por mes y más de 1.900 millones de páginas vistas por mes, y proviene de móviles en una 40%, asumió el desafío y está alistando un nuevo proyecto llamado CNNx, orientado tanto a los PC como a las tabletas (vía apps) y a los televisores inteligentes. ¿Ha de ser la estrategia “móvil primero” (mobile first)? No, dicen en CNN, ha de ser “cualquiera sea su pantalla, estaremos ahí” (Whatever screen you are closest to, CNN is going to be on) (Nieman Journalism Lab, 27/01/2014). La empresa desea lograr una mejor colaboración entre el poder de Internet y la TV, de acuerdo con KC Estenton, Vice Presidente Senior de CNN Digital. La herramienta permitirá en el futuro a los espectadores, a través de los móviles y de CNN.com, revisar cualquier segmento de información que se haya emitido en las últimas 24 horas (Clases de Periodismo, 11/04/2014). La BBC, por su parte, al tener una audiencia móvil mayor a la de equipos fijos los fines de semana, reconoce que tiene mucho que aprender de competidores como BuzzFeed y Vice, servicios que hacen historias de manera diferentes a las de la BBC. Hoy en día hay más gente siguiendo a @BBCBreaking en Twitter que los 209


que sintonizan el noticiero de las 10. Por ello, la BBC usa ahora diferentes plataformas para realizar su cobertura. Una de ellas es WhatsApp. También está experimentando en nuevos formatos, como Instafax en Instagram, y pestañas de BBC Tendencias en medios sociales, que pasan a ser fuentes de noticias (Clases de Periodismo, 19/05/2014). Otra forma de abordar las nuevas exigencias de los lectores, especialmente los más jóvenes, es con los “newsgames” o juegos de noticias, que cada día ganan más fuerza y adeptos. Las infografías estáticas de los medios impresos pasaron en la web a los gráficos interactivos en algunos grandes periódicos. Ahora, medios punteros como The Guardian se preguntan si las noticias deben convertirse en una forma de entretenimiento para atraer al lector a un medio en crisis. En 2009, la revista Wired inició esta tendencia presentando ‘Cutthroat Capitalism’, un newsgame que explica los aspectos económicos de la piratería somalí, poniendo al jugador al mando de un barco pirata y ofreciendo opciones para las estrategias de negociación de rehenes. La tarea consistía en guiar a la tripulación pirata a través de las redadas en el Golfo de Adén, realizar el ataque y la captura de un barco y, si tenía éxito, negociar un rescate. En 2011, Channel 4 lanzó ‘Sweatshop’, un juego en línea que simula una cadena de producción textil donde los trabajadores no tienen derechos. Al final de cada nivel aparecen en la pantalla datos reales sobre condiciones de trabajo esclavistas en países en vías de desarrollo. En 2013, la pieza más leída de The New York Times no fue una noticia sino un juego de preguntas y respuestas sobre los distintos acentos estadounidenses que colocaba al lector en un mapa interactivo del país. Es evidente que un buen guión es fundamental para conseguir un juego de este tipo, y el resto del trabajo también es intensivo. “Escribir códigos de programación lleva más tiempo que escribir un artículo”, explica Ian Bogost, uno de los autores del libro ‘Newsgames: Journalism at Play’. Por esto cree que, para despegar, este mercado requiere una inversión real por parte de los grandes medios. Las conferencias acerca del género ya se han vuelto comunes en los Estados Unidos y quizás veamos más producciones en el futuro (El País.es, 16/05/2014). Pero en una situación de crisis, implican inversiones difíciles de considerar. 210


Otro recurso técnico es el uso de aplicaciones especiales (robots) que seleccionen y publiquen automáticamente contenidos. The Guardian ha anunciado que utilizará un algoritmo propio (el ‘robot’) para elegir el contenido del periódico de entre las historias con mayor popularidad y repercusión en redes sociales como Facebook y Twitter; luego enlazará el contenido a las plantillas de estilo del periódico para ser impreso posteriormente y distribuirse de forma gratuita cada mes a medios de comunicación estadounidenses y a agencias de publicidad (Clases de Periodismo, 14/04/2014). Este tipo de algoritmo es fácil de desarrollar para, por ejemplo, ofrecer a los lectores suscritos una selección de noticias ajustada a sus intereses, sistema del que ya hemos hablado. Desde mediados de julio 2014, AP está utilizando robots para la producción de noticias del área financiera concentradas en los datos mientras los “periodistas se enfocarán en reportear y escribir historias sobre qué significan esos números… así como identificar tendencias y encontrar historias exclusivas que pueden ser publicadas” (Poynter, 21/07/2014). 6.3.2. Opinan los editores

Robert Newman entrevistó a los principales editores de revistas y directores creativos de los National Magazine Awards. Éstas son algunas de las opiniones que recogió acerca de las revistas online. Las apps actuales les parecen decepcionantes, pero expresan optimismo para el futuro: Josh Klenert, director ejecutivo del equipo de Experiencia de Cliente Digital en JPMorgan Chase: “Yo no diría que las apps están muertas, pero no han sido la bala de plata que la industria de las revistas esperaba hace unos 3 años.” David Jacobs, CEO de 29th Street Publishing: “Lo que hemos aprendido es que los consumidores las han rechazado con firmeza: las suscripciones digitales representan sólo el 3% del total de suscripciones. Los productos de éxito se centran en la accesibilidad, la experiencia y la flexibilidad. Las revistas para móviles han fallado en los tres aspectos.” Mario García, CEO y fundador de García de Medios: “Yo soy optimista. Creo que el estado de diseño de revistas para tabletas está aún en su infancia. Tenemos que 211


empezar a mirar a las peculiaridades de la tableta, de lo que puede hacer, y luego explotar eso. Las apps más interesantes para mí son las que tratan de repensar la experiencia móvil de las noticias por completo: Circa, Breaking News, NYT Now, NowThis News.” Jeremy Leslie, del magazine Culture Studio de Londres: “Estoy muy decepcionado por el estado actual de las aplicaciones de revistas, pero estamos sólo al comienzo de un experimento más largo en la forma. Si las aplicaciones de pago descargadas en tabletas es el camino a seguir para el contenido editorial aún está por verse.” Joe Zeff, presidente de Joe Zeff Design: “La próxima generación de publicaciones digitales [deberá] desplazar el control editorial hacia el consumidor: permitir al consumidor determinar los contenidos que desee y como y cuando quiere consumirlos. Es hora de dejar las cubiertas de las revistas tradicionales y entregar una publicación a la carta con una publicidad a la carta.” (R.Newman, 2014) David Boardman, ex editor de The Seattle Times, sugiere que la mayoría de los periódicos deberían considerar renunciar a sus ediciones impresas los días de semana en algún momento en los próximos años y concentrar todos sus esfuerzos en una única versión impresa en sábado o domingo (dado que los ingresos publicitarios se concentran sobretodo esos días), vertiendo todos sus recursos en lo digital y móvil. (Gigaom, 16/07/2014).

6.4. Censura El creador de la web, Tim Berners-Lee, advirtió que los efectos democratizadores de internet están en peligro por la creciente censura y vigilancia en la red. BernersLee realizó estas declaraciones previamente a la presentación de un reporte sobre los países que mejor usan la internet, teniendo en cuenta su impacto social y político. El informe sugiere que el 94% de los países analizados no controlan adecuadamente las intercepciones de gobiernos a la internet, y que el 30%s bloquean o filtran contenidos políticos. Finalmente, concluye que el actual marco 212


legal respecto al espionaje de la red perpetrado por gobiernos necesita revisarse urgentemente (BBC, 22-11-2013). 6.4.1. Censura política

Reporteros Sin Fronteras (RSF) hizo una ardua investigación sobre las instituciones que censuran la web y denuncia estas prácticas, por lo cual recomienda a los Estados y a las organismos internacionales terminar con la seguridad paranoica impuesta desde hace varios años. Algunas de las instituciones señaladas por RSF que han sobrepasado su misión original practicando una censura y una vigilancia ilimitada de los actores de la información son la Autoridad de Telecomunicaciones (Paquistán), la Agencia Central de Información Científica y Tecnológica (Corea del Norte), el Ministerio de Información y Comunicaciones (Vietnam) y la Oficina Estatal de Información de Internet (China). Se indica que 32 de las instituciones calificadas como “Enemigos de Internet” por RSF operan en democracias pero que solo pretender defender la libertad de expresión y la libre circulación de información. Es así que la National Security Agency (NSA) en Estados Unidos, el Government Communications Headquarters (GCHQ) en el Reino Unido y del Centro para el Desarrollo de la Telemática en India reprimen de igual forma la libertad de expresión (Clases de periodismo, 12/03/2014). Según una encuesta realizada por el Pew Research Center a más de 22.000 personas alrededor del mundo, hay una fuerte correlación entre el uso de Internet y el apoyo a una Internet libre mediante la reducción de los controles gubernamentales, sea donde sea que vivan. Como muestra el siguiente gráfico, mientras más gente está conectada a la Internet (el eje horizontal, en porcentaje), más alto es el porcentaje de personas que afirman que uno debería poder acceder a la Internet sin el control de sus gobiernos (FayerWayer, 19/03/2014).

213


6.4.2. Participación de lectores

Mientras algunos diarios ofrecen a sus lectores la posibilidad de comentar sus artículos, otros lo evitan. Según un estudio publicado por The New Yorker, los comentarios anónimos son menos civilizados pero también promueven mucho más compromiso con la marca. Reducir los insultos y las faltas de respeto sin coartar el debate entre quienes forman la comunidad es un problema que afronta cualquier medio (Nohacefaltapapel, 30/04/2014). Para evitar una mezcla embarazosa de comentarios de quejas desinformadas e insultos, The Chicago Sun-Times ha eliminado, de forma temporal, el historial de comentarios en su sitio web, reportó Poynter. “El mundo de comentar en Internet ofrece una maravillosa oportunidad para la discusión y la generación de ideas. Pero cualquiera que se haya aventurado en un hilo de comentarios puede dar fe de que estos foros a menudo se convierten en un pantano de negatividad, racismo,

214


incitación al odio y comportamientos troll8 en general que restan al contenido”, advirtió Craig Newman, su editor de contenidos. El medio informó que el área seguirá desactivada hasta que encuentren un sistema para moderar los comentarios y evitar que se generen debates llenos de odio, algo que se ve con frecuencia en webs de diversos países del mundo. El New York Times, por su parte, estrenó en diciembre 2013 un rediseño que destaca los comentarios favoritos de sus lectores y permite a cualquiera denunciar a quienes usan su espacio para hablar de otra cosa, hacer ataques personales o enviar spam (Nohacefaltapapel, 30/04/2014). Pero, por el contrario, el sitio Popular Sience se deshizo de su sección de comentarios por completo en septiembre 2013. Debatieron si los beneficios que recibían de los comentaristas que señalaban errores y ofrecían puntos de vista opuestos eran mayores que el permitir comentarios que envenenan el debate y propician lecturas engañosas con tergiversación de la información. La solución que que muchos medios en línea han intentado ha sido poner fin al anonimato de los comentarios haciendo que los usuarios se registren vía Facebook u otra red social, lo cual puede ser bastante efectivo para silenciar trolls, según TechCrunch, aunque también puede dejar a los sitios sin comentarios productivos (Clases de periodismo, 13/04/2014).

8

"Un troll o trol es una persona que publica mensajes provocadores, irrelevantes o fuera de tema en una comunidad en línea" (Wikipedia).

215


7. Educación “Los niños no aprenden de la misma forma que lo hacemos nosotros, pero la forma de dar clases no ha cambiado desde la revolución industrial”, asegura Don Tapscott, autor del libro “Growing up digital, the rise of the net generation” (BBC Mundo, 23/06/2014). Internet ha cambiado la forma en que interactuamos con el tiempo y el espacio. Podemos estar aprendiendo todo el tiempo, siempre que queramos y donde queramos. Y debido a eso, estamos viendo un crecimiento explosivo en la educación en línea. Si bien, gracias a internet, se puede realizar docencia fuera de la sala de clase y se hace cada vez más, la sala de clase también se ve irremediablemente afectada. Luchar ahí contra la tecnología no tiene sentido y sería una batalla perdida. Los alumnos tienen en sus manos tabletas y teléfonos inteligentes y, con ellos, acceso a internet y a la interacción en línea. Las TIC aportan un ambiente totalmente nuevo para la educación y, con los recursos propios del e-learning, se agrega una ventaja extraordinaria: la posibilidad de una enseñanza más personalizada, en el sentido de ajustarse mejor a los ritmos y las capacidades distintas de los estudiantes. (Somos hace tiempo partidario del abandono del modelo de la “clase magistral”, especialmente en la enseñanza superior.) El sistema educativo ha de tener a la vista tres habilidades esenciales para el siglo 21, nos dice Alan Berkson: ser capaz de someter a examen a fondo o evaluación lo que encontramos, ya que cualquier persona, en cualquier lugar, puede escribir algo y publicarlo pretendiendo ser experta sin serlo; tener capacidad de síntesis, porque los buenos informadores (profesores, periodistas) son los que pueden sintetizar y aplicar nueva información de forma rápida y eficaz; y ser capaz de encontrar, examinar y luego correlacionar, organizar y difundir, lo que se llama “curaduría de contenidos” (SocialMedia Today, 15/07/2014). El problema es que la gran mayoría de los profesores no está preparada para enfrentar esta realidad y, esencialmente, adaptar sus métodos de enseñanza. “El profesor ya no es más el portador del conocimiento ni su misión es la de transmitirlo. Ahora es un facilitador cuyo objetivo principal es desplegar estrategias y metodologías para que sea el propio estudiante el que realice esas 216


conexiones”, dice Adriana Flotta (Net-Learning, 18/06/2014). El hecho que los alumnos dominen estos aparatos y sepan buscar información no hará de por sí que aprendan más o mejor. La UNESCO reconoce que la brecha entre profesores y alumnos, en este campo, es mucho menor en las universidades que en los niveles inferiores de la enseñanza. El problema es que en los países en desarrollo hay pocos educadores que se sienten cómodos usando las TIC o que estén bien entrenados para enseñar eficazmente y de maneras creativas a través de ellas, señala Martin Carnoy, académico de la Universidad de Stanford. “No sirve ni siquiera que los profesores se manejen en el uso de las TIC, necesitamos que conozcan tácticas predefinidas, estrategias respaldadas en investigaciones científicas que permitan enseñar tales contenidos", asegura Ángeles Domínguez, del Instituto Tecnológico y de Estudios Superiores de Monterrey (El Mercurio, 24/06/2012). Más grave, quizás, es que a pesar de creciente número de programas y políticas orientadas a la incorporación de nuevas tecnologías en educación, “no existen evidencias concluyentes acerca del impacto que tienen estas políticas o programas” (IBERTIC, Organización de Estados Iberoamericanos para la Educación, la Ciencia y la Cultura, 2012). Las TIC pueden integrarse de dos maneras a la enseñanza: incorporando los recursos comunes de internet (páginas web, redes sociales, etc.) a la docencia o bien diseñando materiales o cursos completos en la modalidad “a distancia” (elearning). La séptima encuesta annual del Centre for Learning & Performance Technologies sobre herramientas para la enseñanza mostró que los diez recursos son los más valorados por los docentes que utilizan medios digitales son los que aparecen en la tabla adjunta (J.Hart, CLPT, 27/09/2013). Hechas estas observaciones dedicaremos más espacio a considerar lo que ocurre con la enseñanza que puede realizarse a través de internet, sea que una asignatura

217


se dicte completamente de este modo sea que utilice este tipo de recurso como parte o complemento del proceso de enseñanza. Nótese que si bien el término “e-learning” se utiliza comunmente para referirse a la educación digital a distancia, no debe entenderse como referido exclusivamente a asignaturas enseñadas totalmente a distancia sino a la utilización de recursos electrónicos en la enseñanza (“electronic learning”), los cuales estarán hoy accesibles, generalmente, por internet.

7.1. Difusión del e-learning De acuerdo con la Encuesta Sloan de Aprendizaje en Línea 2010, aproximadamente 5,6 millones de estudiantes tomaron al menos una clase basada en la web durante el semestre de otoño 2009, lo que marcó un crecimiento del 21% respecto al año anterior, y los expertos predijeron que la educación en línea podría llegar a 14 millones en 2014 (The Next Web, 11/11/2013). Capterra calculó que 10 millones de estudiantes habían tomado al menos un curso masivo en línea (MOOC), pero sólo 1 de cada 10 de estos estudiantes había completado o aprobado el curso. Más del 40% de las empresas Fortune 500 ahora educa a través de medios tecnológicos. El 84,2% de las empresas encuestadas afirman que utilizan el elearning para la formación y desarrollo de los empleados y las empresas que ofrecen las mejores oportunidades de aprendizaje electrónico generan 26% más en ventas por empleado (Capterra, 5/03/2014). Según los datos que maneja la Escuela de Organización Industrial, el 43% de las empresas españolas reconoce haber llevado a cabo formación online (Educación2.com, 16/07/2014). En 2011, se estimó que alrededor de 35,6 mil millones de dólares se gastaron en aprendizaje electrónico en todo el mundo. En el 2014, el e-learning era una industria de 56,2 mil millones de dólares -un crecimiento de 55,2% en tres años(Nwlink.com) y se estima que crecerá 23% entre 2013 y 2017 (AurionLearning, vía Traineasy.com, 23/06/2014). Los EEUU y Europa representan el 70% del elearning en todo el mundo (Revista eLearning). Para fines de 2014, se espera que 218


el 80% de los estudiantes de la educación superior norteamericana estudien una o varias asignaturas en línea (Pulp PR, vía eCampusNews.com, 16/06/2014). “Creemos que para el año 2019 la mitad de todas las clases para los grados K-12 se impartirán en línea ... El auge del aprendizaje en línea trae consigo una oportunidad sin precedentes para transformar el sistema educativo en uno centrado en los estudiantes, que puede personalizarse para ser asequible según las diferentes necesidades de los estudiantes al permitir que todos aprendan a su ritmo y por el camino adecuado, lo que permitirá a cada estudiante desarrollar su máximo potencial” declaró Clayton Christensen, académico experto en innovaciones, en un congreso sobre el futuro de la universidades estatales, en Dallas (EEUU), en noviembre 2011. Internet ya cuenta con varias compañías y organizaciones que están ocupando espacio de educación en línea, como Open Yale, Open Culture, Khan Academy, Academic Earth, P2PU, Skillshare, Scitable y Skype in the Classroom. Los EEUU y Europa representan el 70% del ámbito en todo el mundo. Se espera que Asia Pacífico crecerá un 20% anual (Revista eLearning). “En tres años todas las compañías serán empresas de software, la educación debe preparar para eso”, dice Jan Muehlfeit de Microsoft. “Pienso que tendremos una educación muy diferente porque la que hay ahora no será capaz de cumplir con las necesidades de las industrias y las empresas, por eso hay que cambiar la educación. Y la tecnología puede hacerlo. [...] A medida que la tecnología esté más presente, la inteligencia, el cerebro, será más importante porque la única manera de competir, ya seamos individuos, organizaciones o países, será con la habilidad de desbloquear el potencial humano, que es justo donde la tecnología puede ser muy útil. Creo que lo que conseguirá la tecnología es convertir a los profesores más en ‘entrenadores’ y mentores: ayudarán a los niños a darle forma a su pensamiento. [...] Creo que los profesores, con la tecnología, podrán estar mucho más dedicados a los estudiantes, y hacerlo de manera más individual: entrenarles, servirles de mentor, formarlos para llevarlos hacia un nuevo nivel.” (Xataka, 25/03/2014)

219


7.2. Orígenes del e-learning El e-learning combina hoy generalmente dos componentes: el recurso digital y la disponibilidad (total o parcial) a través de la red. Es, por lo tanto, heredero tanto de una tradición más que centenaria de “cursos a distancia” como de multiples experimentos de uso de recursos tecnológicos en la educación. Con el surgimiento de los PC, surgió una primera ola de e-learning basada en el ordenador, al final de la década de 1960. Una segunda ola, en las décadas de 1980 y 1990, introdujo una pedagogía más elaborada, basada en el diseño instruccional. Con el surgimiento de la World Wide Web, las universidades crearon sus sitios web, primero para proyectar su imagen y sus servicios hacia sus futuros alumnos, hacia las empresas que podrían recurrir a ellas para obtener servicios y hacia el gran público. Luego, también crearon sistemas de ayuda a los procesos administrativos y publicaron sus programas y apuntes de diversas asignaturas. Finalmente, algunas han entrado resueltamente en la instalación de verdaderos - y complejos - sistemas de docencia a distancia. En Sudamérica, se lanzó hace poco la Universidad Virtual de Quilmes, en Argentina. Y nos encontramos actualmente frente a las campañas de algunas empresas comerciales que están ofreciendo plataformas de e-learning, a veces de dudosa concepción. Existe no sólo un problema de calidad en el desarrollo de estos cursos sino en la formación de los profesores para el adecuado uso de internet y de los recursos que ofrece. “Con demasiada frecuencia estas iniciativas tecnológicas se ponen en marcha sin contar con un plan sólido de capacitación del profesorado” dice Mark Bullen, experto en e-learning de la Commonwealth of Learning de Vancouver, Canadá. (El País, 24/03/2014). En 1999, los inversionistas vertieron 800 millones dólares en el aprendizaje electrónico basado en el propio ritmo de los estudiantes. “Aspirantes a empresarios hiperventilados pensaron que esta tecnología podría reemplazar a los humanos en la formación, proporcionando a los estudiantes el control sobre su propio desarrollo y la reducción de costes de forma espectacular” dice Stephen J. Meyer, miembro de la Association for Talent Delopment. “Estaban equivocados”. Un estudio de Masie / ASTD mostró en 2004 que la formación no obligatoria en 220


plataformas de e-learning, terminaba con sólo el 32 por ciento de aprobación de los usuarios. (ASTD.org, 8/07/2014). Meyer explica las razones de tan malos resultados (que aún se pueden observar hoy en muchos casos). Mientras algunos expertos sugirieron que los alumnos no estaban preparados para el e-learning, eran los desarrolladores de e-learning los que no estaban preparados para ello. Usaban el legado del diseño instruccional para crear módulos que eran “largos, aburridos, torpes, y a veces francamente irritantes”. No sólo estaban creando contenido para un alumno nuevo cuyo cerebro está conectado de manera diferente, también estaban creando contenido en formas obsoletas, sin tener en cuenta la nueva realidad y el nuevo conjunto de reglas del medio digital elegido por este nuevo usuario. Debemos considerar una tercera ola del e-learning, la era del diseño de información para una mente no lineal, la que se inició aproximadamente en el año 2010. Debido a ello, el e-learning ha sido cada vez mejor, y la inversión se cuadruplicó 400 millones de dólares desde 2010 hasta 2012. Como decía McLuhan, “El medio es el mensaje” y tenemos que aplicar sus reglas, las reglas de la comunicación digital multimedial. “El peso del pasado es fuerte, pero estamos en la cúspide de un cambio de paradigma en las habilidades blandas de e-learning. La mayoría de los profesionales del aprendizaje se da cuenta ahora de que la forma breve es la mejor. Son muy conscientes de que el aprendizaje multiconceptos crea sobrecarga cognitiva, por lo que [en esta moalidad] es más difícil que los usuarios participen del e-learning, manteniendo su interés, y reteniendo lo que han aprendido” agrega Stephen J. Meyer. (ASTD.org, 8/07/2014). La mente no lineal de la era digital quiere “información en ráfagas cortas, inconexas, que a menudo se superponen”, dice Nicholas Carr, premio Pulitzer 2011. (Ver N.Carr, 2010). Por ello, consideraremos aquí algunos principios y tipos de tecnología a tener en cuenta.

221


7.3. Bases de proyectos de e-learning La creación de herramientas de apoyo al aprendizaje debería tener especialmente en cuenta aspectos como: ● la fundamentación de los contenidos en el enfoque del “estudio basado en metas” (goal-driven learning): el proceso debe ser guiado por un razonamiento acerca de la información necesaria para servir los objetivos pedagógicos; ● la inclusión de guías de “meta-estudio”, según el principio del estudio guiado por introspección: se debe guiar al estudiante para que reflexione acerca de su modo de pensar acerca del tema y, así, integre más fácilmente en su mundo mental los eventos y las relaciones causales propios del tema; ● la inclusión de filtros atencionales positivos y negativos (motivadores, reforzadores y correctivos) y de agentes personalizadores en interfaces más ajustadas a los usuarios. Un grupo de científicos del Laboratorio de Inteligencia Artificial y Ciencias de la Computación del MIT ha realizado un estudio para demostrar que todavía falta mucho trabajo para que el e-learning llegue al nivel ideal, a pesar de las buenas previsiones que le esperan para el futuro. Han analizado los datos proporcionados por la plataforma educativa online edX, dirigida por el mismo instituto y la Universidad de Harvard, acerca de los hábitos de visualización de más de 100.000 estudiantes a lo largo de 6,9 millones de sesiones vídeo. Las principales conclusiones a las que ha llegado el MIT sobre los cursos online han sido las siguientes: • Los vídeos cortos son más interactivos y crean un nivel de implicación mayor. Es recomendable que no pasen de los 6 minutos de duración. • La diversidad visual es más efectiva: la alternancia de diapositivas con imagenes de una persona que las explica tiene mejores resultados que en el caso de una presentación PowerPoint estática. • Los vídeos grabados en un entorno informal son mejor recibidos que los vídeos que suponen un presupuesto elevado. • El dinamismo visual de las presentaciones atrae más la atención del usuario: el movimiento y la fluidez visual combinada con improvisaciones en el discurso ayudan a que el tutorial sea más interesante. 222


• La adaptación de los vídeos para la plataforma online es esencial y más importante que la calidad del vídeo. • La rapidez y la dosis de entusiasmo del discurso influye en la receptividad del vídeo. • Los participantes necesitan pausas durante la presentación verbal del contenido para asimilar los conocimientos aprendidos. (TICbeat, 2/08/2014).

7.4. Tipos de proyectos de e-learning 7.4.1. Manuales digitales

Los manuales electrónicos (hipermediales o no) acompañados de tutoriales (guías de estudio) y sistemas de verificación del conocimiento adquirido, como nuestro “Mentor”, sobre el Procesamiento Cognitivo de la Información, que desarrollamos en HyperCard, en la Pontificia Universidad Católica de Chile, ya en 1989, y nuestro curso titulado “La imagen: ventana al conocimiento”, que estuvo en línea hasta mediados de 2014, son una primera modalidad de e-learning. 7.4.2. Juegos serios

Hay que recordar que el juego ayuda a motivar y a ejercer los músculos mentales y que las herramientas multimedia mejoran la capacidad de memoria de nuestro cerebro (éste prefiere las imágenes al texto). Los “serious games” o “juegos educativos”, sean de simulación o instrucción, tienen un componente estratégico basado en cierto conocimiento experto. El juego serio ha sido definido por Mike Zyda como “una prueba mental, llevada a cabo frente a una computadora de acuerdo con unas reglas específicas, que usa la diversión como modo de formación gubernamental o corporativo, con objetivos en el ámbito de la educación, sanidad, política pública y comunicación estratégica” (M.Zyda, 2005). En los países anglófonos, se habla de “edutainment”, palabra derivada de la contracción de ‘education’ y ‘entertainment’, es decir enseñanza entretenida o “ludoeducación”, que se refiere a la enseñanza mediante el juego. En un ámbito más amplio que el de la educación, se habla de “ludificación” o “gamificación” (castellanización de

223


‘gamification” u operación de dar forma de juego). La ventaja de estos sistemas es el involucramiento de los alumnos, lográndose habitualmente un fuerte compromiso sin ejercer presión, aunque ello depende evidentemente de la calidad del juego. Los estudiantes que aprenden a través de contenidos “gamificados” obtienen un resultado 9% mayor en conocimientos y 14% superior en habilidades según la empresa evaluadora de aplicaciones Capterra. El mercado de los juegos de aprendizaje es de 3.900 millones de dólares, y se espera que crezca a 8.900 millones en 2017 (Capterra, 5/03/2014). Este tipo de tecnologías goza cada vez de mayor aceptación como lo muestra un estudio del año 2012 llevado a cabo por la empresa GfK y en el que participaron más de 500 profesores de educación primaria de toda España. Mostró que casi 1 de cada 3 docentes había realizado actividades con videojuegos con sus estudiantes (sobre todo en matemáticas, conocimiento del medio y lengua española) y que el 79% del profesorado manifestaba la aprobación del uso de videojuegos como herramienta educativa para la enseñanza. Los videojuegos son muy útiles, entre otros, para mejorar la concentración y favorecer el desarrollo del pensamiento lógico y sistemático, la capacidad deductiva e inductiva, la capacidad analítica, estratégica y de planificación de la acción, la evaluación de situaciones para la toma de decisiones, etc. También proporcionan innovadoras técnicas de evaluación como llevar a los alumnos a crear sus propios videojuegos gracias a plataformas como GameMaker Studio y e-Adventure sin necesidad de tener conocimientos en programación (El País.es, 21/07/2014). Un consejo de Imma Marín, asesora pedagógica de la Fundación Crecer Jugando y experta en nuevas tecnologías y educación: “No tiene sentido hablar de construir el aprendizaje a través del juego si no juegan las dos partes (profesores y alumnado): es decir, no funciona si una de las partes hace jugar a la otra, sin implicarse en el juego” (IBSchool, 27/07/2014). 7.4.2.1. Juegos de simulación

Los “simuladores” son conocidos de larga data en el ámbito de la formación profesional especialmente con los simuladores de vuelo, que han sido incluso popularizados con el “Flight Simulator” de Microsoft. En algunas áreas de la 224


educación superior se han ido introduciendo los sistemas de simulación por medios informáticos, cuyo grado lúdico es evidentemente muy variable. Se pueden encontrar hoy incluso simulaciones de salas de cirugía. Pero si consideramos sistemas más lúdicos, también existen excelentes muestras de juegos de simulación, como lo es “Sim Ants”, reconocido por los especialistas como la mejor representación de cómo trabajan y “guerrean” las hormigas. Son más conocidas las múltiples versiones del juego (comercial) “Civilization”, de Sid Meyers, que supone que se descubran algunas reglas de los procesos históricos, reglas que el producto, lamentablemente, no explicita. Para que productos como Sim City y Civilization puedan ser realmente recursos educativos, deberían permitir no sólo el acceso a sus reglas (que sostienen su programación pero no se exponen al usuario) sino incluir un tutor que ayude a tomar las decisiones correctas si el jugador lo desea. 7.4.2.2 Juegos de instrucción

También llamados “aprendizaje basado en juego”, se caracterizan por incluir toda la teoría en el mismo juego a fin de mejorar el aprendizaje, tratando de equilibrar la enseñanza con la “jugabilidad” y mantener un alto nivel de entretención. Al lado: “Life Preservers”, un juego de Carrie Heeter Brian Winn sobre la evolución e historia de la vida en la Tierra (2004).

225


7.4.2.3. Juegos de evaluación

Otros juegos pueden ser utilizados fundamentalmente como complemento del estudio, para evaluar el resultado del aprendizaje, sea a medida que se avanza sea al final del proceso. 7.4.2.4. Juegos de investigación

Un equipo de la Universitat Jaume I (UJI) de Madrid estudió el valor educativo de los juegos de enseñanza, llegando a formar una empresa dedicada a crear productos de este tipo para el ámbito de la geografía: Ubik Geoespatial Solutions. “Por ejemplo, hemos desarrollado una app que se llama ‘La batalla del ruido’ en la que los usuarios deben grabar clips de audio de diferentes zonas para conquistarlas y competir entre ellos usando los niveles de ruido que han recogido. Al final se consigue un mapa de ruido elaborado de forma colaborativa a través del juego”, explican. “Esta tecnología abre numerosas posibilidades a una amplia variedad de estudios y proyectos”, añaden (Sinc, 16/05/2014) 7.4.2.5. Tutoría “gamificada”

Al profesor y programador Shawn Young le sorprendía que con toda la tecnología disponible hoy en día, siguiéramos enseñando igual que lo hemos hecho durante décadas. Con la ayuda de su padre y su hermano, Young creó Classcraft, una iniciativa que ya utilizan más de 7.000 niños en escuelas de 25 países, a pesar de estar solo disponible actualmente en inglés y francés. Classcraft es un juego RPG (role-playing game) pensado para servir de herramienta adicional a las clases con libros, alumnos y profesor. En Classcraft cada alumno asume el rol de un personaje (sanador, guerrero o mago) y tiene que ir acumulando puntos para subir de nivel y acceder a ventajas en el mundo real. Ayudar a otro estudiante con sus deberes da 75 XP (experience points); encontrar un error en los apuntes de clase, 50; participar y trabajar duro cada día, 100. Se pierden puntos si se llega tarde a clase y si no se hacen lo deberes. Los jugadores pueden “morir”, perdiendo todos los puntos y dañando a sus compañeros de equipo. Según Young, el juego 226


motiva a los estudiantes, les enseña a colaborar con sus compañeros y, sobre todo, hace que estudiar y aprender sea algo más divertido. (Gizmodo, 4/06/2014). 7.4.2.6. Hipernovela

Asociadas a los juegos educativos pueden ubicarse también las hipernovelas educativas. Se pueden desarrollar guías de estudio que tomen la forma de una novela policial para, por ejemplo, llevar al alumno a buscar datos y, así, acumular conocimientos. En este caso, el acento se pone en la guía de estudio. Pero también se pueden desarrollar hipernovelas educativas con un mayor componente interactivo. El hipertexto se presta admirablemente como medio para apoyar los procesos de enseñanza-aprendizaje y, en particular, la hipernovela se presta para desarrollar casos y procesos de investigación (exploración) sobre una base “incidental” (es decir aparentemente casual). El lector-estudiante escoge su propio camino por el hipertexto, definiendo su propia trama en medio de la red de todas las posibles lecturas. Es constructor de coherencias (papel que, antes, era exclusivo del autor). Él es quién determina si lo que lee tiene sentido, dentro de qué contexto y en relación a qué otras informaciones. Pero es de este modo que comprende y, por lo tanto, que aprende, tal como lo viene haciendo desde su nacimiento a través de los acontecimientos diarios, de los cuales siempre ha aprendido en forma natural, sin darse cuenta de ello, como nos enseña la psicología genética. 7.4.2.7. El “aula invertida”

Una adaptación más sencilla de la docencia clásica es el modelo de la clase preparada online o “aula invertida” (flipped classroom). Mientras una clase tradicional es centrada en el profesor, un aula “invertida” se centra en el estudiante. Éste asiste a una conferencia en línea, fuera del aula, y anota cualquier pregunta que pueda tener. Luego llega al aula, donde hace sus preguntas -que pueden ser respondidas colectivamente-, aplica los conceptos y realiza ejercicios con la guía del profesor. Al ofrecer conferencias en línea, los educadores dan a los estudiantes la oportunidad de aprender a su propio ritmo. Los estudiantes que necesitan más tiempo para dominar un concepto no se quedan atrás. La idea ha sido desarrollada por los maestros de escuela Aaron Sanns y Jonathan Bergman que la utilizaron inicialmente para apoyar a los estudiantes que, por una razón u otra, no podían asistir a clase. Obtuvieron por ello el premio “Campus Teaching Award” de la 227


Universidad de Carolina del Norte de Chapel Hill. El 86% de sus alumnos declararon preferir este tipo de clase y el 91% estimaron haber mejorado en su aprendizaje (eLearning Industry, 18/09/2013). Otras opciones son los videocursos (conjuntos de vídeos) y los webinars, emisiones en directo, ambos normalmente con posibilidad de interactuar con el profesor. 7.4.3. Cursos masivos abiertos en línea

Los MOOC (Massive Open Online Course), o cursos en línea masivos y abiertos, pueden combinar varias de las formas anteriores, junto con importantes mecanismos de ejercitación, interacción y evaluación. Grandes universidades norteamericanas, como la de Harvard (Harvard Open Courses) y el Instituto Tecnológico de Massachussets (MITx, con 120.000 estudiantes inscritos en una sola asignatura en 2012), ofrecen tales cursos hace algunos años a estudiantes del mundo entero a través de la web. Ambas se han unido en 2012 para formar ‘edX’, un gigante de educación abierta online, mientras las universidades de Stanford, Princeton, de Pennsylvania y de Michigan se asociaron con la compañía comercial Coursera. Según el reporte 2014 de la Internet Society, había más de 1.200 cursos MOOC, con un promedio de 33.000 alumnos por curso, 61,5% de ellos fuera de los Estados Unidos, y 20% de los cursos eran del área de las humanidades. España está llevando a cabo sus propios proyectos de MOOC como competencia a los más célebres (Coursera y edX), generalmente centrados en la asignatura de lengua castellana. Miríada X o unX son comunidades iberoamericanas que representan la alternativa a dichas propuestas de las universidades americanas (El Confidencial, 30/10/2013). La mayoría de los MOOC son gratis porque su objetivo es ofrecer educación de calidad a gente alrededor del mundo que no tiene los recursos para pagar o asistir a cursos presenciales, ampliando la educación a lugares que antes no tenían acceso a distinguidos profesores (BBC Mundo, 26/07/2013). Un problema de los MOOC es el de la evaluación: ¿cómo hacerla con miles de alumnos? Algunos usan un sistema automatizado que revisa las respuestas, pero éste método sólo suele ser válido cuando el examen es de opción múltiple o de 228


respuestas cerradas. Para respuestas abiertas o más complejas, la mayoría de los cursos en línea utilizan un sistema de revisión entre alumnos: después de enviar una respuesta, cada uno debe revisar la de un compañero dando una detallada argumentación (y se han de definir el número de interacciones), lo cual presenta ciertas limitaciones a la valoración y hacen que algunos consideren estos cursos como una amenaza a la calidad de la formación. Uno de los problemas asociados a los MOOC -y al e-learning en general- es el de la identificación de los estudiantes. Y para ello se han aplicado diferentes tipos de técnicas, como la grabación de la actuación del alumno a través de una webcam, pero no garantizan completamente la no suplantación. 7.4.4. Preparación docente

La combinación de los formatos, principalmente tutoriales y gamificación, han de ser considerados como fundamentales, pero siempre basados en un profundo conocimiento de la psicología del aprendizaje. Como lo señalaba ya Seymour Papert en 1994, el mejoramiento y la diversificación del acceso al conocimiento -y en particular de los métodos de aprendizaje- es una exigencia fundamental del desarrollo tecnológico que estamos presenciando (Papert, p.8). Es evidente que la metodología de aprendizaje con internet desafía a profesores, alumnos y también a las instituciones de educación para adecuarse a las exigencias de esta nueva generación. “Lo relevante ya no es aprender de memoria, lo que importa es saber buscar la información, generar capacidad de síntesis, ser capaz de analizarla, ser crítico de ella y con ello lograr utilizarla correctamente”, dice Andrés Pumarino, prosecretario general del instituto profesional DuocUC, de Santiago de Chile (El Mercurio, 16/05/2014). Quién mejor está preparado para crear un buen proyecto es el docente con formación pedagógica que sea a la vez usuario intensivo y múltiple de las TIC y de internet, es decir quién los utilice como herramienta para plasmar sus ideas desde que nacen, con textos e ilustraciones. Preparar programas de cursos y apuntes de docencia (no necesariamente para los alumnos), utilizar software especializado para la investigación, tener una base de datos con bibliografías y otra con citas 229


tomadas de las lecturas son cosas que todo académico de hoy debería hacer a diario y que lo preparan para pensar en otra manera de “hacer clase”. Pero el rol de guía, de tutor, y la relación que implica con el alumno es también un factor clave, que podría fácilmente fallar en el caso de los MOOC. “Es con los niveles de pensamiento -crítico, reflexivo y creativo- como el tutor afronta los retos y por ende desarrolla las actitudes y aptitudes del estudiante para que sea él mismo quien administre y transforme los contenidos disciplinares. Es decir, el tutor de un proceso de e-learning es un facilitador que genera expectativas y promueve la motivación; busca estrategias educacionales, pedagógicas y didácticas; apoyo al sistema en a dotación de herramientas, métodos, técnicas y procesos; estructura los planes de estudio, revisa los enfoques, coordina las metodologías, etc.” dice Omar Villota, experto colombiano en e-learning. “Ser competente para gestionar conocimiento en línea obedece a uno de los principios básicos del saber interpretar: la interacción personal que se logra desde las relaciones humanas.” (Villota, 2003). La pregunta clave, por cierto, será siempre “¿Qué es lo que esperamos que los alumnos puedan hacer (comportamiento evaluable) después de utilizar el software que pensamos crear?” y esto implica tener claro lo que nosotros mismos somos capaces de hacer con la información que manejamos mentalmente y que queremos traspasar. Así, los problemas claves aquí son de dos tipos: la definición de conductas (qué saber hacer) y la definición del medio y método de comunicación para hacer llegar la información y desarrollar la habilidad que serán requeridas en el momento de la evaluación. Tanto la información producida como las instrucciones y recursos que den acceso a ella deben ser representados de la forma más comprensible posible, para lo cual el uso de metáforas (como un escritorio, una oficina, un aparato aéreo que sobrevuela un mapa, etc.) se ha demostrado como un importante procedimiento facilitador. La visualización de realidades abstractas ayuda significativamente al conocimiento, como lo han demostrado las investigaciones en torno a los sistemas caóticos. También lo permite la realidad virtual, en el sentido de fantasía gráfica que muchas veces se le da. (Se puede profundizar esta temática en nuestro libro “Comunicación y conocimiento: Desafíos de la era digital”).

230


Una pregunta que podría hacerse un docente es en que medida podría desarrollar material de e-learning y si los costos no resultan excesivos. Aunque existen plataformas completas para ello, generalmente costosas, sabemos por experiencia propia que es posible producir material propio invirtiendo solamente (bastante) tiempo: como señalado en el prólogo, hemos creado varios cursos en línea, con tutoriales, hipernovela, guía lúdica y mecanismo de evaluación, pero tenemos la ventaja de haber aprendido a programar en PHP además del HTML de las páginas web, de dominar las bases de datos (en este caso MySQL, que se combina con el PHP) y también de haber estudiado ciencias cognitivas. Pero quienes no dominen tales antecedentes pueden perfectamente construir un plan de trabajo que incluya crear un blog (gratis en Blogger o WordPress) o una página web más sofisticada en Joomla! (sin necesidad de saber programar), una cuenta en Twitter, otra cuenta en Facebook para los alumnos o una carpeta y documentos compartidos en Google Drive. Una buena herramienta gratuita es también EWC Presenter, una suerte de “navaja suiza” para necesidades de contenidos con componentes visuales, ya que permite realizar infografías y presentaciones atractivas y publicarlas en cualquier sitio web o blog o descargarlas como gráficos o archivos PDF. Además, sus contenidos, interactivos, se adaptan tanto a la web como a la tecnología móvil, permitiendo la recepción en diversos soportes. También existe una plataforma gratuita para desarrollar e-lecciones interactivas: Oppia (https://www.oppia.org/). Diseñar tareas y aconsejar procesos depende, como siempre, de la iniciativa y creatividad del docente.

7.5. Relevancia Se estima que el conocimiento se duplica cada cinco años, por lo que los profesionales que no se preocupan en forma permanente de mantenerse al tanto de los avances en su disciplina pierden completamente su vigencia ya a los cinco años de egresados de la universidad. Los MOOC y otros tipos de cursos son sin duda la única respuesta posible para que los profesionales se mantengan al día en relación a los avances de la ciencia, cada uno en su propia especialidad, en la “era de la información”. “La Universidad del Siglo XXI, para cumplir su rol social, ha de concebirse sobre las nuevas bases de los requerimientos de conocimiento perpetuamente 231


renovado. Esto significa que, en lugar de estructurarse en torno a pregrado, posgrado y extensión - asociados a períodos y plazos fijos -, ha de buscar una estructura adecuada para ofrecer una educación permanente. El profesional de mañana no podrá pensar que ‘sale de la universidad’ en un determinado momento. Deberá permanecer en el sistema universitario durante toda su vida activa si quiere evitar la obsolescencia de sus conocimientos y la degeneración de su quehacer.” (Colle, 2003d) De acuerdo con un informe publicado por IBM, las empresas que utilizan herramientas y estrategias de e-learning tienen el potencial de aumentar la productividad hasta un 50%. Por cada dólar que la empresa gasta, se estima que puede recibir 30 dólares en productividad. Según un estudio reciente realizado por el Instituto de Investigación de América (The Research Institute of America), el elearning tiene el poder de aumentar las tasas de retención de información hasta un 60%. Esto significa que el e-learning no sólo es más rentable, sino también más eficaz en términos de la cantidad de conocimiento que es realmente adquirida durante el proceso de aprendizaje (eLearning Infographics, 1/12/2013) A pesar de que el acceso al conocimiento es mucho más amplio gracias a internet y las tecnologías asociadas, no puede pensarse sin embargo que los MOOC son una solución general para la educación: el acceso real a los medios técnicos es muy diferente de un país a otro y las condiciones de los estudiantes también son muy diferentes. Sin duda cursos locales con acceso a profesores locales seguirán siendo fundamentales para una formación profundamente humana.

232


8. Efectos individuales y sociales Se dice a veces que internet no produce ningún efecto por sí mismo. Los efectos, que los hay e importantes, son obviamente efectos del uso que se le da, de acuerdo a las alternativas tecnológicas que van surgiendo. Nada de lo que observamos hoy habría sido posible con los equipos y aplicaciones que aparecieron en la etapa inicial de ARPAnet. Hizo falta la enorme evolución en la miniaturización y el aumento de poder de los procesadores para llegar a los smartphones de hoy, que han permitido el boom de las redes sociales y los cambios sociales que se están produciendo... porque los usuarios han descubierto que respondían a deseos íntimos -sin duda consuetudinarios de los seres humanos- y han sido encantados. Los optimistas y los pesimistas acerca de los efectos de internet deberían recordar lo que Marshall McLuhan advirtió en su libro “Understanding Media”: “el medio es el mensaje”. De los contenidos de internet, algunos podrán ser buenos y otros malos para el futuro, pero lo que importa por sobre todo es el efecto del medio en sí, la forma en que moldea la realidad. “El efecto de una tecnología no ocurre en el nivel de las opiniones o los conceptos”, escribía. “Altera nuestros patrones de percepción”. Centrarnos en los contenidos puede encegecernos frente a efectos más profundos. Ahora que internet está presente tanto en nuestros bolsillos (con los smartphones) como en nuestras casas (con los PC, las tabletas o los televisores conectados) y pronto en nuestros autos, ya no podemos escapar -al menos en nuestros países- de los efectos de su tecnología. “Internet está transformando la sociedad y la cultura del Homo sapiens quizás más que ningún otro invento en la historia de nuestra especie”, dijo Pablo Jáuregui en El Mundo (30/04/2014). “Internet, como herramienta accesible para un público razonablemente amplio, no tiene más que dos décadas, y ya es el catalizador fundamental de la revolución tecnológica más amplia y acelerada de la historia”, dicen en OpenMind. “Pensemos que pasaron 70 años para que 100 millones de personas viajaran en avión y 50 años para que 100 millones de personas utilizaran un teléfono. Esta cifra de 100 millones de usuarios la alcanzaron los PC en 14 años, e Internet en 7.” (BBVA-OpenMind, 2014)

233


8.1. Efectos individuales 8.1.1. Cambios biológicos y psíquicos

El uso intensivo de la red, ¿altera nuestro cerebro? Gary Small, director del Centro de Investigaciones en Memoria y Envejecimiento de la Universidad de California (EE.UU.) asegura que sí. Realizó un estudio del funcionamiento cerebral de un grupo de voluntarios que fueron sometidos a resonancia magnética mientras navegaban por internet y descubrió que la actividad cerebral aumentaba significativamente mientras estaban conectados, especialmente en el lóbulo frontal, que son los que controlan la memoria a corto plazo y la toma de decisiones. Al pasar horas frente al computador, se somete al cerebro a una lluvia de estímulos que produce estrés y limita el tiempo para reflexionar y tomar decisiones adecuadas. Para Small, la costumbre de efectuar búsquedas e intercambiar mensajes de textos en internet lleva al cerebro a mejorar sus funciones de filtrado de información y toma rápida de decisiones. Asegura que serán las personas con estas habilidades tecnológicas así como con habilidades sociales cara-a-cara -y la capacidad de elegir adecuadamente entre ambos recursos- los que dominarán en la próxima generación. Small se basa en su observación de cambios en el cerebro de quienes usan la tecnología de la información en forma intensiva y admite el peligro de que surjan “adictos” que pierdan el contacto con la realidad, lo cual requiere medidas preventivas (PCmag, 27/10/2008). Internet nos ayuda a encontrar y compartir información en forma más rápida y eficiente, pero reduce nuestra capacidad para el pensamiento profundo, dice Nicholas Carr, experto en TIC y asesor de la Enciclopedia Británica. Y lo más preocupante es que este cambio ocurre a nivel biológico, en la estructura de nuestro cerebro, y es tanto más profundo cuanto más tiempo pasamos en línea (El Mercurio, 3/01/2010). Hay estudios sobre qué partes se activan cuando estamos frente a la web, en comparación por ejemplo, con un libro: para el libro usamos las áreas más pasivas; con internet, los lóbulos frontales. Es razonable, aunque no esté demostrado, pensar que la exposición intensiva a internet haga que nuestro cerebro tenga una estructura discretamente diferente, opina el doctor Jorge González, neurólogo del Programa de Memoria del Departamento de Neurología de la Universidad Católica de Santiago de Chile (El Mercurio, 27/08/2011). 234


Como lo pueden detectar los educadores, la mente de los “nativos digitales” no es la misma que la de los que hemos nacido antes, en un ambiente diferente. Y si hemos estado navegando desde el principio en este nuevo mundo, nuestra mente ya no es igual a como era hace 30 o 40 años. Es probable que nos cueste más dedicar muchas horas seguidas a leer un mismo texto (salvo que sea, quizás, una entretenida novela). Y no buscaremos textos de apoyo en una biblioteca sino a través de un buscador online, contentándonos muchas veces de citas parciales en vez de leer los textos completos de los que obtengamos las referencias (lo cual no es necesariamente malo, pero es un modo diferente de selección). Profesores norteamericanos se quejan de que ya no pueden exigir de sus alumnos que lean obras completas: les resulta insoportable (N.Carr, 2010). Usamos el navegador para comprar, pagar cuentas, hablar con amigos y familiares, escuchar música, ver vídeos... Nada de ésto era posible hace más de veinte años, y ya no pensaríamos en hacerlo “a la antigua”, salvo casos de fuerza mayor (Tengo una hermana de 86 años, que no tiene internet, y debo escribirle y enviarle cartas a la antigua. Obviamente lee libros impresos.) No es solo una suma de nuevos procedimientos: implica una forma de pensar diferente, aunque -quizás- no nos demos cuenta aún, como señala Nicholas Carr. El pensamiento lineal está siendo desbaratado, sustituído por un modelo reticular, no lineal, basado en “información en ráfagas cortas, inconexas, que a menudo se superponen”, como dice Nicholas Carr (Carr, 2010). No escribí este libro empezando por el principio y avanzando linealmente hasta el final (y es probable que Ud. tampoco lo lea así). He reunido pequeñas piezas de contenido poco a poco y las he ido insertando en una trama que también he refinado progresivamente, todo ello a lo largo de varios meses. Soy de una generación “pre-internet” (¡e incluso pre-televisión: mis padres compraron un televisor cuando yo estaba estudiando en la universidad!), pero -como indiqué en el Prólogo- he sido “PC adicto” desde que estos aparecieron en el mercado. ¡No he podido sustraerme al nuevo “modo de pensar” (aunque aún puedo pasar toda una tarde leyendo un libro, tanto en una tableta como en papel)! Y tanto el procesador de palabras como el Hypercard – y luego el Html – me dieron por fin “el poder” que necesitaba para dar rienda suelta a mi creatividad, y un sistema de base de

235


datos9 respondió a mi necesidad de acumular información de forma que la pudiera reacomodar a voluntad (reemplazando a las tarjetas que acumulaba desde mis primeros estudios universitarios). Hace tiempo que me resulta incómodo leer un libro o diario en papel porque necesito un computador o una tableta al lado para tomar notas. Gracias a las versiones digitales y las tabletas, por fin lo tengo más fácil -¡bendito copy/paste!- (pero aún faltan versiones electrónicas de muchos libros). Así, con la exposición a las pantallas, el cerebro de los niños de hoy está cambiando. El resultado no es ni bueno ni malo: es diferente (de lo ocurrido con sus padres). La neuropsiquiatra infantil Amanda Céspedes considera que el exceso de tecnología está generando una nueva manera de comprender: “La velocidad del procesamiento espacial es rápido, captan luego las imágenes visuales, pero les cuesta concentrarse en un texto, porque no se mueven… Es probable que de aquí a un tiempo, estos adolescentes con cerebros distintos no van a tolerar la calma, la paz de estar, por ejemplo, en un camping mirando las estrellas” (El Mercurio, 3/06/2011). Diferentes trastornos pueden surgir también de la excesiva dependencia de las redes sociales como la depresión o frustración cuando no se observan respuestas a una publicación. La capacidad de memorización también podría estar disminuyendo como resultado de la facilidad con que se encuentra todo tipo de información en la web (FayerWayer, 27/10/2013). 8.1.2. Huellas personales

Usar la web, y especialmente las redes sociales, significa, como lo hemos visto, reducir los límites de nuestra privacidad. “Hay que entender que las redes son un camino sin retorno en [en cuanto a pérdida de intimidad]: pagamos por el uso 9

Lamentablemente no existe una aplicación de base de datos económica y de fácil uso para PC-Windows. El gestor de datos 'Access' de Microsoft no forma parte del paquete ordinario de Office y debe comprarse como complemento del mismo El componente correspondiente de OpenOffice no es de fácil uso (además de requerir Java, que es una plataforma poco segura). La única alternativa es utilizar la hoja de cálculo pero ésta no facilita la presentación en forma de fichas individuales para cada registro. Otra opción es utilizar Evernote, que facilita la organización en diversas libretas y con etiquetas (descriptores) a elección pero no es fácil descargar toda la información seleccionada por vía de búsqueda. Para mis investigaciones, he trabajado con mySQL en un PC con sistema operativo Linux, donde es fácil contruir bases de datos si se sabe programar (en PHP por ejemplo).

236


“gratuito” de las redes sociales entregando información personal, lo hacemos al decir que nos gusta un libro, una película, al subir una foto… etc. Google y Facebook convierten en dinero nuestra privacidad, por eso Facebook puede estar pensando en ofrecer gratis el acceso a internet en África, porque los africanos pagarán esa inversión con su privacidad…”, dice el profesor Eduardo Arriagada (Seminario Transparencia y Libertad de Expresión del Consejo de Transparencia chileno, abril 2014). AVG, una compañía de antivirus, se dedica también a investigar el comportamiento de los internautas. En la feria tecnológica CES 2013, Judith Bitterli, gerente de AVG, informó que habían verificado que el 92% de los niños estadounidenses menores de 2 años ya tenía una huella digital, es decir, eran identificables en fotos y a través de información personal que sus padres habían publicado en internet, principalmente para compartirlas con sus amigos y familia. Descubrieron que el 23% de las mamás suben a internet las ecografías de sus hijos antes de nacer, el 33% publica fotos de su nacimiento y el 7% de los niños menores de dos años tiene una cuenta de e-mail creada por sus padres. “Los niños corren un triple peligro: problemas de relaciones, de atención y adicción, y problemas de privacidad. También hay riesgo de acoso cibernético, pornografía en línea y, en el caso de las niñas, problemas por su imagen corporal”, señala Jim Steyer, fundador de Common Sense Media, un centro de estudios que aborda los medios de comunicación y su influencia en la familia (El Mercurio, 16/01/2013). Los adultos, por cierto, también están expuestos y dejan su huella, especialmente si no tienen cuidado con sus controles de privacidad en las redes sociales, como señalado en el apartado al respecto. Como individuos nos estamos convirtiendo en “balizas de datos”. Los ambientes que estamos construyendo alrededor de nosotros para nuestro sustento, el entretenimiento y el transporte también se están convirtiendo en fuentes de datos. Los gobiernos, las empresas y otras personas pueden tener acceso a estos datos. Si no podemos tejer una mejor arquitectura de seguridad, los demás tendrán tiempo para robar más fácilmente o tomar el control de nuestras identidades y nuestros 237


activos. “¡Parecemos incapaces de encontrar un avión perdido, como el vuelo 370 [de Malaysian Airlines], pero créame, como se desprende de la IoT [Internet of Things], nadie tendrá ningún problema para encontrarlo a usted!”, dice David Hodgson, de Computer Associated (CA Technologies Blog, 23/04/2014). Es difícil comprender porque las aerolíneas no se han suscrito al servicio más básico y relativamente barato de GPS ofrecido por las compañías de satélites, que facilitan la transmisión de coordenadas GPS a intervalos regulares o incluso continuamente. Los buques en el océano ya utilizan un sistema satelital de localización simple, dijo Phil Davies, presidente de la Royal Aeronautical Society Space Group de Reino Unido, pero no las aerolíneas (BBC, 5/05/2014). 8.1.3. Niños, pantallas y redes

Las pantallas se han convertido en el ágora moderna de la cultura, donde tenemos música, películas, libros, interacciones sociales, juegos, e incluso educación. Pew Research calculó que un tercio de los estadounidenses era dueño de una tableta en 2013. Y “entre los padres con hijos menores de edad que viven en el hogar, la propiedad de la tableta se elevó de 26% en abril de 2012 al 50% en mayo de 2013”. Así, los niños de hoy están crecientemente rodeados de ellas. ¿Que padre con un teléfono “inteligente” no deja que sus niños jueguen con él? Más aún: ¿cuántos niños, aún pequeños, no pasan horas frente al televisor en nuestro países? Sin duda las pantallas les afectan, ¿pero en que? “Los investigadores no saben casi nada sobre el impacto de la tecnología de pantalla táctil en los niños pequeños”, dijo Heather Kirkorian, profesora asistente de estudios de desarrollo y de la familia humana en la Universidad de WisconsinMadison, que está tratando estudiando el tema. “Nuestra sociedad está ejecutando un experimento a gran escala con los niños reales en el mundo real, y no vamos a conocer el impacto, si lo hay, sino dentro de muchos años” (M.Honan, 2014). “Cuando entrego a mi hija un iPad con una aplicación de lectura interactiva, se sumerge en ella y lee. Pero también entra en trance. Es inquietante porque, francamente, me centra en mí mismo. Estoy perpetuamente distraído, mirando mi mano, haciendo caso omiso de las personas que me rodean”, agrega M.Honan. “Las pantallas tienen una naturaleza dual extraña: nos hacen más conectados y ser 238


más aislado al mismo tiempo. … Tengo miedo de averiguar lo que le hacen a mi hija.” (ibidem) Con los juguetes, el niño decide cuando terminar, pero con un videojuego, es la aplicación la que determina el término, cuándo se ha completado la tarea de manera correcta. Los investigadores no saben aún si esta diferencia tiene algún impacto a largo plazo. “No pasó mucho tiempo para que quitarle el iPad a nuestro hijo en las noches se convirtiera en una batalla. Muchas aplicaciones infantiles están diseñadas para estimular la activación de dopamina, el químico del cerebro usualmente asociado al placer. Decidimos quitarle el iPad a nuestro hijo, y ahora casi ni se acuerda de él”, dice Sandra Calvert, profesora de la Universidad de Georgetown (El Mercurio, 24/05/2012). Según la Asociación Británica de Maestros y Profesores, los niños de 3 o 4 años no tienen destreza en los dedos porque son demasiado adictos a deslizar sus dedos en las pantallas de tabletas. Saben cómo utilizar los dispositivos, pero apenas saben cómo jugar con los juguetes reales, y hay alumnos que no pueden socializar con otros alumnos. Informa además que el recuerdo de algunos niños mayores se está deteriorando debido a la sobreexposición a las computadoras. De acuerdo con un profesor, estos niños no pudieron terminar las pruebas tradicionales utilizando lápiz y papel (K.Levy, 2014) “Mantener a los niños lejos de las pantallas táctiles en estos días es más difícil que mantenerlos lejos de los dulces. La tableta es el nuevo chupete.” dice M.Honan. Entonces, ¿qué puede hacer un padre? Es obviamente imposible negarles hoy su uso. Pero la solución es de sentido común: se deben usar con moderación. La Asociación Nacional -norteamericana- para la Educación de Niños Pequeños dice que “cuando se usa intencionalmente y de manera apropiada, la tecnología y los medios interactivos son herramientas eficaces para apoyar el aprendizaje y el desarrollo”. Pero también advierte que la exposición a los medios de comunicación interactivos debe ser limitada, especialmente para los niños pequeños (K.Levy, 2014). Es necesario tener en cuenta lo descubierto por la compañía de seguridad Kaspersky: el 39,9% de las visitas de los niños españoles iban dirigidas a páginas web con contenidos pornográficos -y la media europea se sitúa alrededor del 50%-

239


y el 24% a webs de software ilegal. Una situación que, obviamente, ha de preocupar a sus progenitores y recordarles la conveniencia de la supervisión. La Academia Americana de Pediatría es inequívoca: Si el niño es menor de 2 años, no debe usar pantallas. Para los niños mayores, el máximo ha de ser de dos horas al día. La AAP no distingue entre actividades y mete en el mismo saco las aplicaciones educativas, los juegos de vídeos, los ebooks y Plaza Sésamo (Sesame Street). Todo es tiempo de pantalla. Aunque una aplicación que le enseña a su niño el abecedario no es lo mismo que los dibujos animados en televisión, es probable que la AAP tenga razón en ser conservadora con su consejo. Una vez que saben leer y escribir, los niños que usan mucho los mensajes de texto de los celulares son “más rápidos, pero menos precisos” que los demás, concluyó un estudio publicado en la revista científica Bioelectromagnetics. El modo en que completan las palabras de manera automática altera las funciones cognitivas de los niños, llevándolos a creer que todo funciona de este modo (BBC Mundo, 13/08/2009). El problema del acceso a los contenidos no es menor y hace al menos diez años que se advierte de ello a los padres. Una investigación reveló en 2003 que niños menores de 10 años pueden tener relaciones sexuales y sexo oral con otros niños después de haber visto imágenes explícitas en Internet. “Los datos recabados demuestran una reacción nociva ante la exposición a la pornografía en Internet”, dijo la asistente social del Hospital de Canberra, Cassandra Tinning, quien coordinó la investigación con el Instituto Australiano de Estudios de la Familia. La investigación fue realizada sobre 101 casos, en los que la Unidad de Evaluación de Niños en Riesgo del Hospital de Canberra examinó “el comportamiento sexual ofensivo” en la infancia (Mouse, 26/11/2003) 8.1.4. Los padres frente a los niños

Tres investigadores del Departamento de Pediatría del Centro Médico de la Universidad de Boston (EEUU.) se instalaron durante dos meses como clientes de restaurantes de comida rápida de la ciudad de Boston para observar discretamente las interacciones que ocurrían entre padres e hijos menores de 10 años cuando los 240


primeros sacaban un dispositivo móvil en la mesa. Publicaron los resultados en la revista Pediatrics, revelando que aparatos como teléfonos inteligentes y tabletas -en manos de adultos a cargo del cuidado de niños- pueden convertirse en un verdadero obstáculo para el contacto entre ambos, “distrayendo a los padres de interacciones cara a cara con sus hijos, que son cruciales para el desarrollo cognitivo, emocional y del lenguaje”. Durante el estudio, los investigadores observaron a 55 grupos de padres y niños. En 40 de los casos (72%), los adultos usaron dispositivos móviles durante la comida. El grado de interacción con los aparatos iba desde solo ponerlo sobre la mesa (7,5% de los casos) hasta usar el dispositivo casi en forma continua durante la comida, lo que ocurrió con el 40% de los padres observados. “Si mientras estás con el niño estás pendiente de Facebook, WhatsApp o Twitter, lo que estás diciéndole es que no tienes tiempo de estar pendiente de él, de contactarte con él. Le comunicas sin palabras que hay otras cosas más importantes, y eso va a interferir con un vínculo seguro en la edad temprana, que es fundamental para el desarrollo”, advierte el psicólogo Max Möller. Al dejarse absorber por el celular, lo que están haciendo los padres es hipotecar un contacto clave para el desarrollo del niño y su vinculación afectiva. “Su falta de preocupación por construir un vínculo con el niño puede llevar a que cuando más adelante quieran hacerlo, al hijo ya no le interese, porque no tiene en su registro afectivo lo que le pasa al padre o la madre. No se creó una intimidad emocional, y solo conviven en el mismo lugar sin saber quién es el otro”, dice Carla Padilla, psicóloga clínica experta en ciberpsicología. La solución es simple, agrega: “apagar el celular o guardarlo lejos cuando se está compartiendo tiempo con otros” (El Mercurio, 10/03/2014). 8.1.5. Jóvenes

“Uno de los rasgos fundamentales de los niños de la iGeneration es que conciben las tecnologías como una extensión de ellos mismos. Sienten, socializan y se inundan de información con ellas. No pueden dejar de usarlas ni dejarlas fuera de la sala de clases. Ni hablar de controles parentales: esta generación se ingenia sí o sí para acceder a todo lo que le apetezca”, dice el doctor estadounidense Larry D. Rosen, psicólogo y académico de la Universidad de California (Ya, El Mercurio, 6/4/2010).

241


Eusebio Megías, director técnico de la Fundación de Ayuda contra la Drogadicción (FAD), afirma que el joven que no esté ni use redes sociales quedará fuera de un grupo que se autogestiona y organiza a partir de la tecnología. Si un chico no está integrado en las redes sociales, incluso si no lo está en tiempo real, correrá el riesgo de perder oportunidades en sus relaciones personales, dice (ABC.es, 9/04/2014). Con motivo del Día Internacional de la Seguridad en Internet, la organización Kidscape publicó en 2011 un estudio sobre Internet en jóvenes de 11 a 18 años. El estudio, realizado en el Reino Unido, ha preguntado por sus hábitos a 2.300 de ellos. El 45 por ciento se consideró más feliz con la vida que desarrollaban en internet que con su situación en el mundo real. El 60 por ciento de los menores de 18 años aseguraron que mienten sobre su edad en la red y el 42 por ciento tiene “amigos” en la red que no conocen (Noticiasdot.com, 9/02/2011). Un informe publicado en mayo 2014 por Net Children Go Mobile, un proyecto de investigación conjunto con la London School of Economics and Political Science (LSE), estableció que “Los niños de toda Europa se están volviendo cada vez más dependientes de sus smartphones: hasta el 50% de ellos habrían dado dos o más muestras de dependencia excesiva (como sentir la presión provocada por la sensación de tener que estar siempre disponible, o experimentar malestar cuando no se pueden comprobar las notificaciones del smartphone)”. La mayoría de los chicos dijeron que se sentían más conectados con sus amigos (el 81%, en diversos grados) y la familia (57%) gracias a su smartphone. Además, dos de cada tres creen que sus móviles les ayudan a organizar sus tareas cotidianas, y más de la mitad están de acuerdo en que mejoran su sentimiento de seguridad personal (TICbeat, 7/06/2014). Investigadores españoles han analizado la exposición, tanto involuntaria como voluntaria, de 2.077 adolescentes a los contenidos de internet, destacando el alto porcentaje de adolescentes que afirman buscar páginas con contenido sexual explícito. Su exposición a contenidos no apropiados, como son pornografía, violencia, racismo, promoción del alcohol y drogas o patologías alimentarias, se confirma también en el marco de las redes sociales, si bien una de las funcionalidades más importantes detectadas (alrededor del 20%) es la de establecer 242


nuevas amistades. Los de menor edad están menos expuestos, voluntaria e involuntariamente, a contenidos inapropiados, son más precavidos en la Red en lo que se refiere a la contactación con personas desconocidos o el tipo de información que facilitan, aunque se muestran más confiados en la red y menos interesados en saltarse los controles paternos. En general, con la edad, aumentan las situaciones de riesgo a las que se ven sometidos los menores al igual que el tiempo que se encuentran en la red y la percepción de los efectos del uso de Internet sobre sus calificaciones, el sueño y las relaciones con los amigos. Destaca el alto grado de confianza que manifiestan con respecto a internet, confianza que coexiste con el reconocimiento de haber padecido situaciones de riesgo (entre un 47 y un 51%). Los chicos son los que buscan un mayor contacto con desconocidos, en tanto que las adolescentes reciben en mayor medida peticiones de contacto de desconocidos. Un 34,9% de adolescentes dice haber recibido estas peticiones. Los motivos para ello también divergen: los chicos buscan ligar y tener experiencias diferentes y las chicas ampliar su red de contactos; además las féminas que acudieron a esas citas relatan situaciones más positivas y lo cuentan más a amigos y familiares. Las adolescentes también parecen más sensibles a la percepción de situaciones vinculadas al ciberbullying y acoso que suceden en su entorno y los varones a situaciones de carácter sexual. Las chicas reciben más peticiones obscenas y de ciberbullying y los chicos contenidos sexuales. Más de la mitad de los encuestados conoce casos de prácticas relacionadas con el acoso –insultos, burlas y amenazas– de forma directa, y es significativa la cifra de quienes afirman haberlas sufrido. El estudio también constata el alto porcentaje de adolescentes que dedican un tiempo excesivo a navegar y, aunque en menor medida, un número relevante de personas que se manifiestan dependientes de alguno de los servicios de internet y que perciben que internet afecta negativamente a sus resultados escolares (B.C. García y otros, 2014). En una investigación de la Universidad Santo Tomás (Viña del Mar, Chile), 14,9% de los jóvenes de enseñanza secundaria y universitaria entrevistados declararon sentirse “preocupado, nervioso o ansioso cuando no puede conectarse a internet”; 52,6% declaró perder la noción del tiempo cuando usa internet (Puranoticia, 13/05/2014).

243


Un consulta realizada por Chicos.net junto a Save the Children y RedNATIC (Red de Organizaciones de América Latina por el derecho de los niños, niñas y adolescentes a un uso seguro y responsable de las TIC) con 1.189 adolescentes (hombres y mujeres), con edades comprendidas entre los 13 y los 18 años, con alta o media propensión tecnológica, residentes en 9 países de Latinoamérica, arrojó que la amplia mayoría (84%) reconoce saber algo, poco o nada en torno a sus derechos y responsabilidades para el uso seguro de las TIC. Sólo un porcentaje menor se siente verdaderamente informado. El estudio también mostró que existe entre los adolescentes consultados una clara sensación de vulnerabilidad frente al uso de la tecnología. En concordancia con ello, la mayoría (52%) percibe que el aprovechamiento de las posibilidades tecnológicas conlleva riesgos. Frente a una agresión a la propia persona: prevalece la actitud de retirarse de la situación; responder a la agresión surge en un porcentaje menor de los casos (18%), menos presente aún el apelar al diálogo para exigir respeto. Un segmento importante de la muestra deja entrever dificultades para recurrir a los adultos (padres o profesores) para pedir ayuda (Diario TI, 12/02/2014). Ventajas reconocidas por los jóvenes

Fuente: Diario TI, 12/02/2014 (encuesta antes citada)

Las largas horas que muchos adolescentes destinan a interactuar a través del computador están restando tiempo al contacto cara a cara, que es fundamental para que el niño o adolescente `sintonice´ su comportamiento social. “Con las redes sociales eso se está perdiendo, desaparece el lenguaje no verbal y es fácil caer en 244


confusiones o distorsiones, a lo que se suma la sensación de anonimato que entrega la ausencia de contacto físico”, advierte Cristian Bahamondes, psicólogo de la Unidad de Adolescencia de la Clínica Santa María (Santiago de Chile), reportó el diario El Mercurio. La solución no es condenar los contactos virtuales sino fomentar el encuentro personal. Estamos viendo que la línea entre lo público y lo privado es cada vez más borrosa para muchos adolescentes. Para los expertos, es el producto del uso excesivo de la comunicación virtual. “Pareciera que estamos ante una generación que no ha desarrollado el pudor de la preadolescencia, que no tiene vergüenza de exponer su cuerpo y que piensa que nada de lo que hace o dice tiene consecuencias”, estima la psicóloga Alejandra Villa (El Mercurio, 25/06/2011). “La instantaneidad con que llegan las fotos, sonidos o palabras a través de los dispositivos tecnológicos no sólo está borrando las distinciones entre lo público y lo privado. También entre lo importante y lo trivial, las palabras y las acciones; los amigos y los conocidos; lo real y lo ficticio”, dice el doctor Eitan Schwarz, psiquiatra estadounidense autor del libro “Kids, Parents & Technology” (2010). Sin embargo, no todo es negativo o preocupante. Un estudio hecho por la agencia McCann a 7 mil encuestados de entre 16 y 30 años de 17 países descubrió que tres motivaciones parecen fundamentales para esa generación: la autenticidad, la justicia y la necesidad de conexión, y los cinco principales valores que los jóvenes buscan en sus amigos son: ser verdaderos, genuinos, sociables, maduros y humildes. Y sólo el 6,3% está interesado en ser famoso. Pero esta generación está dispuesta a casi todo por mantenerse en línea. De una lista de cinco elementos (cosméticos, autos, teléfonos, laptops y su sentido del olfato), a la hora de escoger sólo dos, el 53% de los jóvenes entre los 16 y 22 años y el 48% entre los de 23 y 30 años daría su propio sentido del olfato si esto significara mantener el teléfono o el laptop. (El Mercurio, 30/10/2011). El profesor Larry Rosen, de la Universidad Estatal de California, concluyó de sus trabajos que los adolescentes usuarios de la red son más narcisistas. Además, los 245


adultos jóvenes que tienen una fuerte presencia en Facebook muestran signos de otros desórdenes psicológicos como comportamientos antisociales, manías y tendencias agresivas. También se le evidenció que los usuarios más acérrimos de Facebook tienen mayores posibilidades de exhibir perturbaciones en el sueño, altos niveles de ansiedad, depresión y dolores estomacales. Sin embargo, las redes sociales pueden transformarse en una herramienta útil para que los estudiantes más introvertidos logren una mejor comunicación y conexiones, además de haber sido probada como una exitosa fórmula para la enseñanza cuando están bien utilizadas. (La Nación -Chile-, 9/08/2011) Otra investigación acerca del comportamiento social de los jóvenes de entre 13 y 25 años, publicada por el periódico Daily Mail, mostró que su actividad en las redes sociales ha modificado en muchos casos sus conductas convirtiéndolos en vanidosos, superficiales, necesitados de atención y afectados de otros tipos de patologías relacionadas con una típica crisis de identidad. La investigación indicó que este tipo de trastornos vinculados con las redes sociales son comparables con los caprichos de un niño pequeño en edad de “llamar la atención”, provocando a su entorno para conseguir lo que desea, según declaró B. Greenfield, profesora de farmacología de la Universidad de Oxford (FayerWayer, 4/08/2011). 8.1.6. Adultos

Un estudio de la firma holandesa de investigación Motivaction International, en 48.000 personas mayores de 18 años en 20 naciones, mostró que los nacidos entre 1980 y 2000 (“milennials”) son más competitivos y narcisistas que los demás (44% aman “ser notados”, contra 34% de la anterior “generación X” y 25% de la generación de posguerra). Casi un tercio de los “milennials” (35% en Centro y Sudamérica; 27% en Europa) dijo que competir con otros, en oposición a trabajar en colaboración, asegura mejores resultados, comparado con apenas un cuarto de los encuestados de las dos generaciones anteriores. También consideran que gozar es un importante objetivo de vida. Apenas 15% da mayor importancia a los valores familiares. Esta generación está más abierta que las anteriores a transacciones online como los llamados préstamos “peer-to-peer” y más propensos a considerar usar grandes compañías no financieras como Google para servicios financieros básicos. (Lampert & Blanksma, pp.5-12) 246


8.1.7. Sentimientos en la red

Tanto las redes sociales como los medios de comunicación que tienen abiertos espacios para comentarios están viendo que es cada vez más habitual insultar y enviar mala onda a través de ellos. Existe un grupo importante de personas que, amparadas en el anonimato, sólo entran a la red para mostrar resentimiento y rabia. Los científicos recién comienzan a estudiar este fenómeno y sus consecuencias. Uno de ellos es Art Markman, psicólogo de la Universidad de Austin en Texas. “En estos días, los comentarios online son extraordinariamente agresivos y no resuelven ni aportan nada. Lo complejo es que quienes se quejan y odian en la web, muchas veces no se sienten escuchados por nadie, lo que los frustra y los enfurece todavía más. Tener una experiencia emocional tan intensa y no resolverla, claramente desarrolla problemas mayores”, dijo al sitio web Scientific American. Cuando estas personas exponen su odio en la red (ya sea contra personas, estados o corporaciones) y reciben el apoyo de sus pares mediante retuits, mensajes de apoyo o replicaciones virales “se produce químicamente una sensación de logro y satisfacción muy intensa, pero al no ser tangible en la vida real, se vuelve algo frustrante y deprimente. La vida real es compleja; cada uno tiene sus problemas y pocos van a salir a la calle a dar una pelea que no es suya. Así, hacemos la revolución desde la comodidad de un sillón”, explica Markman (El Mercurio, 4/08/2012). Edward Wasserman, profesor de ética del Centro Knight de Periodismo, considera que una de las posibles causas de la virulencia de los cibernautas es el mal ejemplo que han dado los medios de comunicación, con programas que enseñan formas equivocadas de discutir y relacionarse, como ocurre en los reality shows, donde el personaje exitoso es el que dice lo que piensa sin medir consecuencias, es polémico y frontal. “Los medios de comunicación deben reducir los niveles de ira y odio que emiten, ya que esto se traspasa a los comentarios que hacen los usuarios en los sitios”, dice. Esta conducta se puede volver adictiva y hay que evitarla, ya que no aporta nada a la sociedad y daña la salud mental del que se queja. Ya hay un nombre para tales adictos: son los trolls, personas que interactúan en la web publicando mensajes provocativos y ofensivos, que generalmente están fuera del tema y el contexto de la conversación (ibidem).

247


Pero no seamos exageradamente negativos. Investigadores de las universidades de California, en San Diego (UCSD), y de Yale, realizaron un estudio conjunto que analizó los estados emocionales de más de 100 millones de usuarios de Facebook en EEUU. El trabajo abarcó las 100 ciudades más populosas del país, entre enero de 2009 y marzo de 2012. Sus resultados, que se publicaron en la revista científica PLoS One, demostraron que los sentimientos positivos son más contagiosos en la red que los negativos. Los posteos negativos aumentaron en 29% los comentarios de este tipo entre los amigos, mientras que los positivos incrementaron un 75% los posteos positivos en esta red social. Como resultado de este fenómeno se podrían producir mayores incrementos de las emociones -tanto negativas como positivas- a nivel global, causando mayor volatilidad en todo, desde la política hasta la economía, dicen los investigadores. Para ellos, el desafío futuro es dar un uso positivo a las redes sociales, para que ayuden a fortalecer los lazos sociales y la cooperación (Coviello & alt., 2014). Otro estudio, de la Universidad de Michigan, en EEUU, afirma que si bien Facebook ayuda a las personas a que se sientan conectadas con otros, no necesariamente las hace más felices, sino que puede disminuir su bienestar. El estudio examinó la influencia de Facebook en la felicidad y satisfacción del usuario en el tiempo. Midió la felicidad -entendida como el nivel de satisfacción con la vida y la sensación de bienestar diario- en un grupo de adultos jóvenes conectados a Facebook a través de sus teléfonos inteligentes. Solo con las relaciones directas con sus amigos, evitando las redes sociales, señalaron una mejora en el bienestar, mientras sentían fastidio al recibir preguntas en SMS. John Jonides, neurocientífico y coautor del estudio, refirió que precisamente este punto es clave para revelar la influencia potencial de las redes sociales en la vida de las personas (PlosOne, agosto 2013). 8.1.8. Adicciones

En 2010, The New York Times publicó una serie de reportajes titulada "Su cerebro bajo el computador", donde se exploraba qué es lo que pasa en nuestras vidas hiperconectadas. Citaban numerosos estudios sobre el tema y, entre ellos, la conclusión de Nora Volkow, directora del Instituto Nacional de Abuso de Drogas de EEUU y una científica de nivel mundial, quien opinaba que el atractivo de la 248


estimulación digital del cerebro no es comparable con el alcohol o las drogas, pero sí con la comida y el sexo, que son esenciales para la vida pero pueden ser contraproductivos en exceso (El Mercurio, 27/08/2011). El escritor norteamericano Nicholas Carr, en su libro “Superficiales: ¿Qué está haciendo internet con nuestras mentes?” presentó internet como “Satanás comiendo nuestro cerebro clic a clic” (ibidem). Por cierto esta posición tan extrema no es compartida por los expertos, pero da cuenta de una extendida preocupación. Existen múltiples adicciones en las redes sociales, y la empresa de software Marketo las clasificó en 10 categorías: ● El “Alert Lover” (amante de las alertas): busca una notificación o alerta para todo. Las pone al máximo volumen y se emociona al escucharlas, perdiendo el foco de lo que estaba haciendo. ● El “Gurú Social”: se autoproclama gurú de las redes sociales en las tarjetas de presentación o en la biografía de Twitter. ● El “Creador de Verbos”: inventa verbos a partir de sitios sociales y los usa todo el día. “Voy a instagramear mi taza de café ahora”, es un ejemplo. ● El “Detesta Vocales”: se manifiesta por la manía de no usar vocales en Twitter para así respetar los 140 caracteres que permite el sitio. ● El “Bloguero Autorreferente”: escribe de todo en su blog y en las conversaciones no se cansa de recordarlo. ● El “Autoproclamado Influyente”: puede llegar a sudar si han dejado de seguirlo en una red social. ● El “Multi Mayor”: publica en qué lugares está todo el tiempo a través de Foursquare o Facebook. ● El “Liker”: se dedica a hacer “Me gusta” a todas las publicaciones y fotografías de amigos en Facebook. ● El “Chequeador Constante”: revisa su celular cada dos minutos para ver, por ejemplo, si a alguien le gustó la foto que subió a Instagram. ● El “Furioso”, que se ofusca cuando una red social se cae. “La adicción a internet no tiene que ver con el tiempo de uso, sino con el cómo se usa. Si a la persona le impide realizar la actividad cotidiana, dejando de lado compromisos y responsabilidades, y si es un comportamiento repetitivo con consecuencias negativas para su entorno y para sí mismo, se convierte en una 249


adicción que debe tratarse”, dice Max Möller, psicólogo magíster en adicciones de la Universidad Complutense de Madrid, España (El Mercurio, 28/10/2012). Según un estudio online realizado en 2003 por un equipo de psicólogos del Ministerio de Ciencia y Tecnología de España, el 10,5 por ciento de los usuarios de Internet sufrían algún tipo de problemas relacionados con la adicción a la red, mientras que casi el cuarenta por ciento se encontraban en situación de riesgo. Sólo la mitad de los internautas no registraba problemas de adicción (Noticias.com, 1/07/2003). En 2010, Enrique Echeburúa, catedrático de Psicología Clínica de la Universidad del País Vasco, calculó que aproximadamente entre un 5 y un 6% de la población realizaba “un uso inadecuado” de la red en forma de adicción u otras conductas como el acoso (Sinc, 25/02/2010). Enrique Echeburúa, catedrático de Psicología, advirtió, en un curso celebrado en la Universidad Internacional Menéndez Pelayo, que la adicción a las redes sociales puede llevar a los jóvenes al aislamiento social y la “automedicación digital” (ABC, 26/08/2009). La base de la adicción a las redes sociales podría tener relación con el placer que provoca en los internautas hablar de sí mismos y compartir opiniones personales con los demás, una conducta que genera a nivel cerebral un efecto comparable al que causa el sexo o una buena comida a juicio de la psicóloga Diana Tamir, de la Universidad de Harvard. A través de exámenes de resonancia magnética, Tamir pudo observar que cuando una persona realiza o publica comentarios personales, se activa en el cerebro la región asociada a la sensación de gratificación y recompensa. Según su investigación - publicada en la revista de la Academia Estadounidense de Ciencias (PNAS) -, las personas dedican del 30% al 40% de sus conversaciones cotidianas a hablar de sí mismos, pero en las redes sociales, este porcentaje asciende a casi 80%. Exámenes realizados con resonancias magnéticas cerebrales mientras los sujetos hablaban sobre sus creencias y opiniones demostraron que, en este tipo de situación, se activaban mecanismos neurales y cognitivos asociados con la gratificación, de manera similar a como ocurre con la comida, el dinero o el sexo. “El hablar de uno mismo hace sentir bien. Nos gusta pensar acerca de nosotros mismos y nos gusta compartir información sobre nosotros mismos. Eso explicaría por qué la gente lo hace con tanta frecuencia”, dice Tamir. “Internet ha expandido drásticamente el número de vías a través de las

250


cuales podemos hablar de nosotros mismos a otras personas”, agrega (El Mercurio, 25/08/2012). Otro indicador del placer es la producción de la hormona oxitocina en el cerebro. En la búsqueda de una conexión entre esta hormona y el uso de redes sociales, el Dr. Paul J. Zak, profesor de la Claremont Graduate University, estudió muestras de sangre tomadas a usuarios antes y después de usar sitios como Facebook y Twitter. Sorprendentemente los resultados confirmaron un alto índice de la oxitocina con el uso de estos sitios. La oxitocina actúa como neurotransmisor en el cerebro y está relacionada con los patrones sexuales y la conducta maternal (o paternal), además de provocar relajación, vinculación y sensación de felicidad. Entre otras cosas, es generada por caricias, besos y abrazos principalmente en las mujeres (FayerWayer, 18/04/2011).

8.2. Efectos culturales y sociales Un informe del Pew Internet & American Life Project ofrece una síntesis de los beneficios sociales: “Los usuarios de las redes sociales tienen más relaciones, obtienen mayor soporte social y son políticamente más activos que el usuario medio de Internet”. Así, por ejemplo, el ciudadano americano pondera en promedio su soporte social en 75/100, mientras el usuario de Internet lo estima en 78/100 y el usuario de Facebook en 83/100 (PC Magazine, 16/6/2011). Pero también paga el costo de menor privacidad, más tiempo pasado en línea y menos tiempo en relaciones cara a cara. Como estamos viendo en este momento, el futuro de las TIC implicará tanto la centralización de recursos (“nube” y “big data”) como la descentralización (gadgets de la internet de las cosas) a niveles que nunca hemos visto antes. La “nube”, los sistemas de análisis de “big data”, los móviles y los “negocios sociales” conforman un nuevo conjunto llamado “Tercera Plataforma” por la empresa especializada en investigación de mercado International Data Corporation (IDC). Según sus cálculos, en esta plataforma, los negocios crecerían en 90% entre 2013 y 2020. Pero el comercio no será el único beneficiado. Consideremos lo que se hace posible si relacionamos la información sobre el genoma de una persona, su 251


hábitos y su estilo de vida, su historial médico y los medicamentos que toma. Podríamos entender la verdadera eficacia de los medicamentos y sus efectos secundarios y esto cambiaría la forma en que los medicamentos son probados y prescritos (y también invadir profundamente su privacidad si no se toman los resguardos adecuados). ¿Qué pasaría si un tutor digital pudiera realizar un seguimiento del progreso de sus alumnos y conocer sus gustos y aversiones, preferencias de estilo de enseñanza, las fortalezas y debilidades intelectuales? Utilizando los datos recogidos por los dispositivos digitales de aprendizaje, resultados de exámenes, asistencia y hábitos, el maestro podría descubrir la mejor manera de enseñar a cada niño en particular. Esto podría cambiar el propio sistema educativo (V.Wadhwa, The Washington Post, 18/04/2014). 8.2.1. Cultura y saber

El acceso al saber es cada vez más universal tanto en cuanto a los conocimientos como a quienes los pueden obtener. Al mismo tiempo que los computadores ofrecen medios cada vez más potentes de investigación y, por lo tanto, de descubrimientos, internet pone rápidamente éstos a disposición de todos. “El metabolismo del conocimiento se está haciendo más rápido”, nos decía ya Toffler en 1990 (p.490). “Las redes sociales son espacios vivos que conectan todas las dimensiones de la experiencia personal. Esto transforma la cultura, porque la gente comparte experiencias con un bajo coste emocional, ahorrando energía y esfuerzos. [...] Las personas evolucionan juntas en permanente y múltiple interacción. Pero cada cual elige las condiciones de dicha coevolución.” (M. Castells, 2014, p.145) El acceso a la cultura nunca ha sido tan abierta y universal. No solo están disponibles en la web los resultados de la investigaciones científicas, también lo están diversos diccionarios y enciclopedias, los clásicos de la literatura de la mayoría de las lenguas y las obras de arte de numerosos países a través de sus respectivos museos, como el Prado (Madrid), el Louvre (París), el Metropolitan Museum of Arts (Nueva York), el Museo Internacional de Iraq, etc., amén de páginas de arte de diferentes tipos y fuentes. Los museos pueden, además, dar a 252


conocer en línea sus fondos imposibles de exhibir por falta espacio. Conocemos también el ejemplo del Museo Virtual de las Artes (MUVA), de Uruguay, dedicado en exclusiva a la obra de artistas de dicho país, que solo existe en línea. De este modo todos los usuarios de internet pueden acceder al arte de un modo que les resultaría físicamente inaccesible. La producción cultural y artística por parte de aficionados, en múltiples ámbitos, también se ha visto favorecida con el invento de medios y formatos de digitalización que permiten su difusión. La fotografía es quizás el mejor ejemplo de las transformaciones habidas en este tipo de campo, aunque su mayor volumen no pretende ser artístico. Los vídeos en Youtube son otro campo en el que se puede encontrar todo tipo de material, tanto artístico como científico. Del mismo modo, SoundCloud y Spotify permiten dar a conocer obras musicales. Podemos ver aquí a internet como un gran multiplicador, si no de la creación misma, de la difusión de ésta y, para muchos artistas, un canal único para darse a conocer y multiplicar sus conexiones. Los sistemas educativos, tocados por la expansión de internet, también se han visto afectados pero solo en los países en que la mayoría de la población cuenta con el necesario acceso. Ahí, los cambios educativos experimentados son complejos y a menudo poco afianzados. Diversas propuestas de “escuela 2.0” han surgido, así como formas y oportunidades de e-learning. Con ello, por ahora, podemos ver que algunos individuos accedan a formas de educación más cómodas, atractivas y útiles, pero no se trata, ni de lejos, de un fenómeno generalizado. El desarrollo de internet como fuente de conocimiento está dando origen a un nuevo tipo de usuario calificado: el nómada del conocimiento (knowmad). El término knowmad, fusión de las palabras inglesas know (saber) y nomad (nómada), fue acuñado por John Moravec para referirse a trabajadores fácilmente adaptables, que son capaces de trabajar con cualquier persona, en cualquier momento y lugar. Es alguién capaz de aprender, compartir -creando redes- y trabajar sobre la información en cualquier contexto y, para ello, es conveniente que tenga formación en múltiples materias, con amplia perspectiva. Formar profesionales con tal capacidad es hoy y será en el futuro una necesidad en la educación superior.

253


Pero ésto no significa que más cultura y más saber llegará necesariamente a “las masas”. Los estudios sobre difusión cultural siguen mostrando que quienes ya saben más tienden a buscar más, mientras quienes están menos formados se preocupan menos de incrementar su formación. En esta materia, la clave está en la educación, no en lo que ofrezca internet. 8.2.2. Hegemonía norteamericana

El dominio de los Estados Unidos en internet no es ni casual ni el mero resultado de sus avances tecnológicos. Es el producto de una política que existe desde el inicio del proceso de su independencia. George Washington declaró que “América ha sido designada por la Providencia para ser el teatro donde el hombre debe lograr su verdadera estatura, donde la ciencia, la virtud, la libertad, la felicidad y la gloria deben florecer en paz” (Autobiografía). Pero esta tarea no es solamente local, sino que se extiende al mundo entero: “Nuestra causa es la causa de la humanidad”, agregó Washington. La American Assembly, un conjunto de expertos que se reúne a petición del gobierno, lo volvió a expresar en 1962: “Es para nosotros una obligación el hacer todo lo posible para ejercer nuestra influencia cultural de modo de socorro [...] Se trata ante todo de una tarea cultural, que exige una clara concepción de nuestros propios valores y del modo en que queremos compartirlos con los demás.” (Cultural Affairs in Foreign Relations, The American Assembly, 1962). Y en 1979, el presidente Carter reafirmó esta vocación universalista: “El liderazgo mundial que fue encomendado a Estados Unidos debe basarse sólidamente en el respeto y la admiración del mundo por las cualidades de nuestra nación, guía en el mundo de las ideas y del espíritu.” (Hearings, Subcommitee on International Operations of the Committee on International Affairs, 96th Congress, febrero de 1979). En su libro de “La revolución tecnotrónica”, el influyente Z. Brzezinski reafirmó que la difusión de las ideas y del conocimiento desde los EEUU era una necesidad vital y debería incluso anteponerse a los esfuerzos en materia de seguridad nacional. De ahí surgió el desarrollo de una mística en torno a las nuevas tecnologías de comunicación, las que son el mejor de los instrumentos para cumplir este sueño de hegemonía cultural. La instalación de los satélites de

254


telecomunicación, iniciada en 1965, y luego el desarrollo de internet han respondido claramente a esta política. La estrategia de las telecomunicaciones y NTIC fue ante todo una estrategia militar y, al fundirse con los objetivos culturales e ideológicos, fue llamada “la otra guerra” (“the other war”), concibiéndose simultáneamente como un medio de control militar-policial e ideológico (Eudes, p. 78). El control del gobierno sobre las incipientes redes fue formalizado mediante la creación del Office of Telecommunication Policy (OPC) por el presidente Nixon, un organismo que dependía directamente de la Casa Blanca. En la década de 1970, los Estados Unidos perdieron el control que tenían sobre la UNESCO y se vieron confrontados con una lucha contra los “intercambios desiguales” y su concepto de “soberanía cultural”. Cambió por ello su estrategia, concentrándose más sobre los medios tecnológicos que sobre los contenidos. En vez de defender la libre circulación de los contenidos (el llamado “free flow”), se abocó a desarrollar -y vender- nuevas y mejores tecnologías, llevando a los demás a utilizarlas para no quedar rezagados en la difusión del conocimiento (y “ayudando” a los países más atrasados). Pero fue también la época en que los grandes bancos de datos norteamericanos empezaron a unirse en redes. Esta unión de los bancos de datos ha sido, sin duda alguna, una de las metas más importante en esta carrera donde había un solo campeón: satélites y computadores norteamericanos pasaron a formar un gigantesco reservorio de información y de cultura. Y el inglés se impuso como “lengua franca” para todo quien quisiera tener acceso a estos sistemas de información. Así, la circulación de las informaciones procedentes de los bancos de datos (y también de las preguntas que se les mandan) quedó bajo el control -solapado- de los servicios federales de investigación, con lo cual están perfectamente informados de lo que se sabe y se investiga en los demás países. Como se puede observar, no se debe creer que el espionaje de las comunicaciones -al cual nos hemos referido (Capítulo 5)- esté ligado exclusivamente al aumento del terrorismo, hecho especialmente puesto en evidencia después de los atentados del 11 de septiembre de 2001. El concepto de seguridad nacional incluye el de dominio absoluto de todo conocimiento y de control de todo tipo de información así como el de difusión de la propia cultura. Si las becas para estudiantes extranjeros en las universidades norteamericanas también formaron -y siguen formando parte- del plan de difusión cultural, los cursos a distancia por internet, especialmente los masivos (MOOC), ofrecidos por universidades de prestigio amplían el alcance del mismo. 255


8.2.3. Relaciones sociales

En el mundo actual, la tecnología está cambiando la forma en que nos comunicamos: es tan penetrante que pasamos la mayor parte de nuestro tiempo conectados y gastamos más tiempo interactuando con nuestros seres queridos en forma virtual que en forma presencial y esta tendencia seguirá creciendo ya que hace más fácil mantenerse en contacto con ellos. “Las redes sociales son espacios vivos que conectan todas las dimensiones de la experiencia personal. Esto transforma la cultura, porque la gente comparte experiencias con un bajo coste emocional, ahorrando energía y esfuerzos. [...] Las personas evolucionan juntas en permanente y múltiple interacción. Pero cada cual elige las condiciones de dicha coevolución.” dice Manuel Castells. (2014, p.145) 8.2.3.1. Transformaciones globales

Tradicionalmente, las personas encontraban apoyo social en redes sociales pequeñas como la familia, los amigos, las iglesias, el barrio, el club y las comunidades locales. Con el auge del acceso a internet y, en particular, de las redes sociales, ha surgido el “individualismo en red” (networked individualism) como lo han llamado L. Rainie y B.Wellman. De esta manera, cada individuo obtiene ahora un tipo distinto de soporte a través de redes más fragmentadas y con vínculos más débiles. Encuentra nuevas formas de resolver problemas y satisfacer necesidades sociales, con más libertad que en el pasado, mayor margen de maniobra y más capacidad para actuar por su cuenta. Y cada nuevo medio de comunicación aumenta su conectividad, reforzando un marco mental donde internet aparece primero: para responder preguntas, publicar estados, fotos o videos. Éstas son algunas características generales de este nuevo “sistema social” según Rainie y Wellman (resumen realizado por F. Piccato): ● “Los individuos interconectados son miembros parciales de múltiples redes y confían menos en relaciones permanentes dentro de grupos establecidos (p12). ● Estas redes funcionan de forma efectiva porque las redes sociales son grandes y diversificadas gracias a la forma en que la gente usa la tecnología (p13).

256


● Los individuos interconectados tienen ahora el poder para crear contenidos y proyectar sus voces hacia audiencias más extendidas que se convierten en parte de sus mundos sociales (p13). ● Las fronteras entre información, comunicación y acción se difuminan: los individuos interconectados usan internet, teléfonos móviles y redes sociales para conseguir información y actuar sobre ella, empoderándolos como expertos (p14). ● Al moverse entre relaciones y su ambiente social, los individuos interconectados pueden crear sus propias identidades en función de sus pasiones, creencias, estilos de vida, asociaciones profesionales, intereses laborales, hobbies, o cualquier otra característica personal (p15). ● En el trabajo, las relaciones par-a-par, menos formales, fluctuantes y especializadas se sostienen con mayor facilidad que en el pasado. Los beneficios de las relaciones jerárquicas jefe/empleado son menos obvias (p15). ● La casa y el trabajo se han entrelazado como nunca antes (p16). ● Mientras las TICs han destrozado la divisoria entre el trabajo y la casa, también han quebrado la distancia entre las esferas públicas y privadas de la vida (p17). ● Nuevas expectativas y realidades surgen sobre la transparencia, disponibilidad y privacidad de las personas e instituciones. La gestión de la reputación, en tanto selección de la información personal que se expone públicamente, es un elemento importante en la manera en que la gente funciona en las redes, establece sus credenciales y construye confianza (p17). ● En el nuevo entorno interconectado, menos jerárquico y delimitado (donde la autoridad está más en disputa que en el pasado y donde las relaciones son más tenues) hay menos certezas sobre a quién y en qué fuentes de información confiar (p18).” “En internet las personas son poco selectivas a la hora de elegir amistades, al contrario de lo que ocurre en la vida real”, dice Domingo Izquierdo, académico de la Facultad de Psicología de la Universidad Diego Portales (Chile). De ahí que la mitad de los usuarios tiene más de 200 amigos y el 20% (el grupo de 18 a 25 años), tiene entre 250 y 500 contactos, de acuerdo con el centro de estudios de internet 257


Pew, de EEUU. Y se expresan de una manera más desenfada que en los contactos directos. “A través de las redes sociales, las relaciones con las personas se idealizan y las emociones, como la alegría, la tristeza, la rabia son más impulsivas y exacerbadas porque detrás de una pantalla hay menos barreras para expresarse”, opina la psicóloga Sandra Troncoso (El Mercurio, 18/05/2014). Pero el Estudio Mundial de la Universidad de Michigan entre 2005 y 2007 demostró que el uso de internet reafirma a las personas al intensificar su sensación de seguridad, libertad personal e influencia, factores todos ellos que tienen un efecto positivo sobre la felicidad y el bienestar personal. (BBVA, 2004, p.141) 8.2.3.2. Búsqueda de parejas

Un 41,16% de los treintañeros así como un 45,38% de los jóvenes de 20 a 29 años se registran en las páginas de encuentros para ligar, según el portal Mobifriends.com. Sin embargo, las mujeres de 20 a 29 eligen como opción principal hacer amigos (66,58%) y un 30,98% busca una relación estable. Lo mismo sucede con las mujeres de 30 años, donde un 64,70% busca amistad frente a un 33,52% que prefiere una relación estable. En el caso de los hombres mayores de 40, un 49,72% busca amistad y un 39,37% busca una relación estable (Stilo.es, 24/05/2014) 8.2.3.3. Malas prácticas

Diversos autores -como ya cualquier observador- consideran que las relaciones sociales se ven especialmente afectadas por la adicción a los smartphones y a las redes sociales. Es frecuente que cuando estamos en una reunión, cena con amigos o comida en familia, alguno -o varios- de los participantes esté mirando constantemente la pantalla de su teléfono. Un estudio de la Universidad de Stanford encontró que para casi el 70% de los entrevistados era más fácil olvidar su cartera en casa que su teléfono inteligente. Otro estudio, esta vez efectuado por Google, encontró que 89% de su muestra usaba su teléfono inteligente para “mantenerse conectado” a través de redes sociales y correos electrónicos (BBC Mundo, 2/10/2013). En mayo 2013 hizo furor en Youtube el vídeo titulado “Look Up”, que recuerda que hay muchas otras cosas que mirar y mejores formas de relacionarse (fotograma 258


a continuación). Aunque varias de sus afirmaciones son exageradas, se ha de reconocer que existen malas prácticas y que algunas personas tienen dificultad para “desconectarse”, lo cual deriva en algunos de los efectos perversos que hemos mencionado antes.

En 2013, también se realizó una campaña para tratar de desterrar la práctica de ignorar al otro mientras se presta atención al celular (“phubbing”), una clara falta de respeto hacia los acompañantes. El movimiento “antiphubbing” fue iniciado por un joven australiano de 23 años llamado Alex Haigh, que creó un sitio web (http:// stopphubbing.com/) para despertar conciencia sobre el abuso del celular en entornos públicos (Al lado, foto de una situación típica, incluída en su portal). Estimó que 87% de los adolescentes preferían comunicarse por mensajes de texto antes que cara a cara. 8.2.3.4. Cultura colaborativa

La cooperación entre las personas, mediante diversos tipos de aplicaciones, tanto para compartir recursos como vehículos (como Uber) o residencias (como Airbnb) así como para realizar trabajos están demostrando un éxito que responde a la naturaleza más profunda del ser humano, como señalan algunos biólogos y 259


científicos cognitivos. El crowdsourcing, sistema para encontrar personas dispuestas a colaborar en determinados trabajos o emprendimientos, se ha convertido en un método muy conocido entre los profesionales pero también entre los estafadores. Esta nueva fórmula de mercado laboral puede constituir el punto de encuentro entre personas que quieren aportar una solución o que están incentivando sus ideas, pero un artículo publicado en MIT Technology Review advierte que las cosas no siempre tienen un final feliz. El nuevo fenómeno ha recibido el nombre de crowdturfing (combinación de crowdsourcing y astroturfing, el apoyo mediante falsas reputaciones en redes sociales) y ha sido reseñado hace ya tres años por un equipo de investigadores de la UC Santa Barbara (EEUU) liderado por Ben Zhao, que demostró que 80% de la actividad de dos plataformas de crowdsourcing importantes en China se basaba en comentarios falsos, envío de enlaces maliciosos, falsas campañas de apoyo o manipulación de buscadores. Otro estudio reciente realizado por Kyumin Lee de la Utah State University mostró lo mismo en Fiverr, otra plataforma de crowdsourcing muy popular en los EEUU. Las conclusiones son claras: la manipulación a través del crowdturfing reduce la calidad del contenido en las redes sociales, disminuye la confianza en los motores de búsqueda y amenaza la seguridad de los servicios web (FayerWayer, 9/07/2014). Y lo que vale para el crowdsourcing vale para los otros ámbitos de los sistemas colaborativos: siempre habrá estafadores y siempre será necesaria la prudencia. 8.2.4. Empresas

“Este es un tiempo de darwinismo digital, una era donde la tecnología y la sociedad están evolucionando más rápido que la capacidad de las empresas para adaptarse de manera natural. Esto prepara el escenario para una nueva era de liderazgo, una nueva generación de modelos de negocio, de carga detrás del mantra de ‘adaptarse o morir’”, dice Brian Solis, analista de Altimeter Group. A su juicio, las empresas se enfrentan a un dilema, ya que invierten recursos, presupuestos y estrategias de negocio basados en la tecnología actual muchas veces sin saber cómo se alinean realmente con los cambios en el mercado y en el comportamiento de los consumidores. Un estudio de la consultora Capgemini demostró en 2012 que aquellas empresas que han investido más en “intensidad digital” y transformación adaptativa eran más rentables y poseían las valoraciones de mercado más elevadas. 260


Así, parece evidente que si el comportamiento del consumidor está evolucionando como resultado de la tecnología, los negocios o bien compiten para salir adelante de la misma forma, reaccionando a ella, o se empequeñecen. Esta adaptación es por lo tanto uno de los movimientos más importantes que enfrentan las empresas de hoy. Después de un año de entrevistas a 20 líderes estrategas digitales en algunas de las marcas más importantes de todo el mundo, Solis concluyó que la transformación digital exitosa se basa en los esfuerzos para entender específicamente cómo la tecnología de punta afecta la experiencia del cliente. La comprensión de esta experiencia se ha vuelto crítica en la orientación de los esfuerzos de transformación, la cual es en realidad una forma de hacer negocios de manera más humana, dice. Aquellas empresas que invierten más en aprender acerca de los comportamientos, preferencias y expectativas de sus clientes digitales y logran adaptarse, tendrán una importante ventaja competitiva sobre aquellos que se demoran más en averiguarlo (B.Solis, Wired, 18/04/2014). Según un estudio llevado a cabo en países como Alemania, China, Gran Bretaña, Francia, Estados Unidos, Canadá y Japón por la agencia de relaciones públicas Fleishman-Hillard, los consumidores confian más en las empresas que promueven “el diálogo activo con sus clientes” en la red (Noticiasdot.com, 15-11-2010). La aplicación de un nuevo software de Accenture, llamado “Social Media Engagement Manager”, que analiza la actividad en redes sociales, está demostrando que los consumidores responden mejor a estos medios de difusión que a la publicidad en medios masivos tradicionales (V3.co.ik, 22-06-2011). Este tipo de análisis -y de software- ayuda a los community managers y departamentos de mercadeo a planificar mejor las acciones y lograr mejores respuestas, y demuestra que se está entrando en una nueva era de estudio y manejo de los variados medios de comunicación. Como hemos visto, el análisis de los datos recogidos (big data) es un recurso que será cada vez más utilizado tanto para “mejorar la experiencia de los clientes” como para lograr mayores beneficios, en forma directa o indirecta, aunque varios ejecutivos se quejan de la debilidad o atraso de las aplicaciones de análisis disponibles. Los dispositivos de la IoT (Internet of Things) representan también nuevas oportunidades de negocio para la mayoría, si no todas, las empresas. La mayoría de las empresas que van a triunfar en la era digital van a convertirse en empresas de 261


tecnología, dice D.Hodgson. Por ejemplo, algunas de las mayores instituciones bancarias entendieron ya este reto y emplean a más desarrolladores que las empresas líderes en tecnología. Los departamentos de TI van a tener que ser capaces de aprovechar estos dispositivos distribuidos y el big data generado por ellos para satisfacer las necesidades de las empresas (Hodgson, 2014). 8.2.5. Comercio

Uno de los aspectos más destacados de la revolución digital es el comercio electrónico, que creció un 400 % entre 1999 y 2009. Nuevas marcas económicas como eBay y Amazon se han convertido en nombres muy conocidos y rivalizan incluso con las ventas de las más grandes cadenas de distribución. Un estudio reciente encontró que el 27 % de los consumidores a nivel mundial hizo su última compra en línea, aunque el impacto de la tecnología digital en el comercio minorista ha sido bastante modesto (El último censo de EEUU mostró que el comercio electrónico representaba sólo el 5,8 % de las ventas al por menor). (Forbes, 4/05/2014). 8.2.6. Nuevas profesiones

Si los profesionales de las diversas áreas de la comunicación (periodistas, publicistas y otros) han tenido que adaptarse a los nuevos medios, también ocurren en otros campos, como las profesiones de la salud (con el control de pacientes a distancia, por ejemplo). Pero, además, están surgiendo nuevas profesiones como experto en seguridad digital personal y privacidad, trader de criptodivisas, asesor de experiencias (consejero de viaje o de compras), o redactor cuantitativo - un profesional con aptitudes de economista, estadista y redactor. (El portal FiveThirtyEight.com fue el primero en contratar uno). (Noticiasdot, 25/04/2014).

8.3. Efectos políticos 8.3.1. Movimientos insurgentes

“En los últimos años, paralelamente a la reciente crisis de la legitimidad política, hemos presenciado en la mayor parte del mundo el crecimiento de movimientos 262


sociales, que aparecen en diferentes formas y con sistemas marcadamente contrastados de valores y creencias, aunque opuestos a lo que a menudo definen como capitalismo global” dice M.Castells (2008). “El surgimiento de la autocomunicación de masa proporciona un extraordinario medio para que los movimientos sociales y los individuos rebeldes construyan su autonomía y hagan frente a las instituciones de la sociedad en sus propios términos y en torno a sus propios proyectos. [...] Sin los medios y modos de autocomunicación de masa, no podrían concebirse los nuevos movimientos y las nuevas formas de política insurgente.” (ibidem). Es con teléfonos móviles que se coordinaron las protestas de los monjes de Myanmar contra el gobierno birmano en 2007 y que las imágenes de la represión fueron conocidas. Como señaló Alberto Rojas: “Hace dos décadas nada de esto habría sido posible. La pregunta, entonces, es qué ocurrirá en veinte años más, cuando existan nuevas herramientas digitales y la portabilidad de los equipos sea una constante.” (El Mercurio, 28/06/2009). Las famosas revueltas de la “primavera árabe” se han extendido por todo el mundo en gran parte debido al uso creativo y subversivo de los medios sociales para compartir información, datos, fotos y vídeos sobre las luchas. Para la mayoría de la gente en todo el mundo los medios de comunicación social fueron la principal fuente de noticias serias sobre lo que realmente estaba sucediendo en estos lugares, principalmente porque algunas organizaciones de noticias tenían personal en estos lugares y utilizaban las redes sociales como todo el mundo para averiguar qué estaba pasando (A. Newbom) En el caso del secuestro de cientos de niñas por el movimiento Boko Haram en Nigeria, la creación de la etiqueta #BringBackOurGirls logró llamar la atención mundial sobre lo ocurrido y, no sólo logró remover conciencias en todo el mundo, sino que movilizó recursos en la vida real, con países como Estados Unidos, Francia y Gran Bretaña, que han comprometido asistencia militar y de inteligencia al gobierno nigeriano para ir a la caza de Boko Haram. El debate está abierto entre quienes aseguran que la visibilidad de un problema - a través de las redes sociales - es el primer paso 263


para su solución, y los que argumentan que sólo se trata de un caso de activismo cómodo (llamado slacktivism, término derivado de slack, que significa perezoso), de bajo compromiso, en que lo que busca quien lo practica es sentirse bien consigo mismo o no quedar fuera de la moda del momento. “Pero este tipo de activismo es caprichoso. Es muy difícil predecir qué campañas serán virales”, señala Ken Rogerson, experto en nuevos medios de la Universidad de Duke, quien destaca que aunque es claro que replicar un hashtag o poner ‘me gusta’ en una publicación en internet “no provee ayuda concreta a una causa, sí importa mucho la opinión pública. Millones de vistas de un video o de ‘me gusta’ pueden ampliar el alcance de un movimiento o causa humanitaria e incluso su capacidad de movilización”, opina (El Mercurio, 18/05/2014). Como lo han mostrado las revueltas en diversos países, los gobiernos y los políticos ya no pueden pasar por alto el poder de las redes sociales, aunque - como dijo Zuckerberg en la reunión del G-8 - Facebook “no es necesario ni suficiente” para hacer la revolución (El Mundo, 25/5/2011). Pero el hecho es que “las redes son eficientes convocadores gracias a que tienen un alcance masivo y transversal” (E.Arriagada, Diario el Día, 2/06/2011). Lo reconoció Riyaad Minty, director de Medios Sociales de Al Jazeera, quién destacó que el verdadero cambio está en “darle la voz al pueblo, a los tradicionalmente marginados por el sistema, así sea en los 140 caracteres que permite el microblogging” (Congreso de Red Innova, citado en FayerWayer, 16/6/2011). Los políticos no pueden prescindir hoy de las redes sociales: son un medio ineludible para llegar a sus electores, dar a conocer su postura sobre los temas del momento y recoger reacciones. Sin embargo, no pueden olvidar que son sólo los más activos los que dan su opinión y que no ha desaparecido el fenómeno de las “mayorías silenciosas”. Frente a esta situación, no faltan los gobiernos que prefieren apagar las voces. Una ley aprobada por el parlamento ruso obliga a los blogs que tienen más de 3.000 visitas por día inscribirse en un organismo de supervisión. “La meta final es cerrar las bocas, aplicar censura en el país, y dar forma a una situación en la que el negocio de internet no pueda existir y funcionar adecuadamente”, dijo a Reuters Anton Nossik, un experto en internet y bloguero. Los sitios web que almacenan información personal de los ciudadanos también deberán tener sus servidores en el

264


país a partir de 2016, lo cual afectará obviamente a las redes sociales con sede en Estados Unidos, como Facebook (Reuters, 5/07/2014). Pero, por otra parte, “la espontánea y fácil agrupación de personas en estas redes sociales tiende al abundante desarrollo de pequeñas comunidades virtuales de intereses afines y puntos de vista muy similares al interior de cada una de estas, respecto a opciones en las distintas decisiones públicas” (M.Costabal, El Mercurio, 24/05/2011). La ponderación de la importancia de tales mini-comunidades ha de hacerse con cuidado, confrontándose con los resultados de encuestas de opinión que cubran un mayor espectro de población. Las redes sociales facilitan la difusión de opiniones diversas, pero también la multiplicación de “mini-líderes” y de opiniones menos generalizadas. El balance, los contrapesos, los intercambios de opiniones diferentes tienden a disminuir y, con ello, la aparición y desarrollo de la sabiduría popular o “sabiduría de masa” se ve afectada, como ha sido señalado por Brandon Keim sobre la base de los experimentos de Jan Lorenz y Heiko Rahut en la universidad tecnológica ETH de Zurich (Suiza): “el conocimiento acerca de las estimaciones de los demás reduce la diversidad de opiniones hasta tal punto que socava la sabiduría colectiva” (Wired, 16-05-2011). Como explicó el economista James Surowiecki en “The Wisdom of Crowds” (2004), para que la sabiduría masiva surja, los miembros de la multitud deben tener una variedad de opiniones, y llegar a esas opiniones de manera independiente. No es así cuando intervienen las redes sociales y estas nuevas mini-comunidades. De ahí que la conducción política pueda hacerse más compleja, como también responder -o no- a los desiderata de los diversos grupos cuidando de que no crezca la insatisfacción. Pero, en conclusión, una campaña por los medios sociales no conduce a nada si no logra una movilización efectiva de gente en otro ámbito, más concreto y práctico. 8.3.2. Política tradicional renovada

Así, la política tradicional también encuentra en internet, tanto en la web como en las redes sociales, nuevos canales para hacer presente sus ideas y tratar de movilizar a sus partisantes. “La observación de las tendencias más recientes muestra que los usos políticos de Internet han aumentado sustancialmente con la difusión de la Banda Ancha y la creciente omnipresencia de las redes sociales en internet” (Sey & Castells, 2004). 265


“Las elecciones al Congreso [norteamericano] de 2006 estuvieron marcadas por una explosión repentina de nuevos usos de los medios de comunicación por parte de los candidatos, los partidos y los grupos de presión en todo el espectro político” recuerda M. Castells (2008). “La aguda polarización del país en torno a la guerra de Iraq y a cuestiones de valores sociales coincidió con la generalización de las redes de autocomunicación de masa. De este modo, la campaña marcó un cambio de rumbo en las formas de la política mediática en Estados Unidos y probablemente en el mundo entero. Innumerables políticos (la más notable, la congresista Nancy Pelosi), publicaron vídeos en YouTube y páginas en MySpace”, agrega este autor. Los gobiernos, además del uso que pueden utilizar de estos recursos en beneficio propio, tienen la posibilidad de monitorear las opiniones ciudadanas (y de los partidos políticos) que aparecen en las redes sociales. Existe una gran cantidad de aplicaciones especializadas que permiten realizar esta tarea. En la campaña electoral de Obama se usaron para determinar donde había menos adhesión, para fortalecer ahí la campaña. Sin embargo, estas herramientas de monitoreo no son eficaces por sí solas, dice Claudio Ramírez, gerente de una empresa que utiliza este tipo de software: “Lo realmente útil es el procesamiento y la valoración humana que se puede hacer de esta información. Se requieren muchas horas de entrenamiento de las personas a cargo de ese monitoreo para entender lo que se quiere medir y su tono” (El Mercurio, 26/06/2011). Pero Toffler ya advertía, en “El cambio del poder”, que las TICS y las herramientas analíticas, que “pasan a ser algo que se da por descontado en el entorno político de las naciones” se ven acompañadas con “nuevas formas de manipular la información procesada por los ordenadores, en comparación con las cuales las infotácticas de los políticos y los burócratas parecen groseras y torpes (Toffler, 1990, p.327). Una última pregunta: ¿Interesa a los ciudadanos participar de algún modo en la política a través de las redes sociales? Según la encuesta de WIP-Chile en Santiago, se puede concluir que el interés es relativo, al menos en este país. Por una valoración máxima posible de 4 puntos, se superan a penas 2 puntos en la valoración del rol de internet. Incluso entre los usuarios más intensivos (30 horas o 266


más), el índice no supera 2,7 (WIP 2010). Según un informe del Pew Internet & American Life Project, en los Estados Unidos, sin embargo, un usuario de Facebook que visita el sitio varias veces al día asistirá probablemente 2,5 veces más a un encuentro político, tiene 57% más de probabilidad de haber tratado de convencer a otra persona de votar por un determinado candidato y 43% más de probabilidad de dar a conocer su voto que otro usuario de la web (PC Magazine, 16/6/2011). “Siendo optimistas, creemos que la erosión de los filtros informativos y el surgimiento de múltiples ejes de información proporcionan nuevas oportunidades a los ciudadanos para desafiar el control de la élite en los temas políticos. Siendo pesimistas, somos escépticos ante la capacidad de los ciudadanos corrientes para utilizar esas oportunidades, y albergamos sospechas ante el grado en el que incluso los ejes múltiples de poder están todavía determinados por estructuras más fundamentales del poder económico y político.” (Williams & Delli Carpini, 2004, p. 1209, citado por por M.Castell, 2008).

8.4. El poder en la red 8.4.1. Los detentores del poder

Con la salida de la National Science Foundation en 2004 y la entrada de nuevos (y numerosos) actores externos a los círculos académicos, la configuración de internet empezó a complicarse y no han tardado en aparecer distintos grupos de poder. Hemos de mencionar primero a los que fueron sus actores tradicionales -los “colonizadores”, como los llama Solveig Godeluck-, los que pueden ser agrupados en dos clases: • los “conceptores” o programadores, que son los que han creado y seguido desarrollando el software necesario para su funcionamiento; • los “lectautores” o “usuarios finales”, o sea quiénes ponen y hacen uso de los contenidos.

267


Pero no podemos olvidar que otros dos actores importante estaban presentes, aunque poco visibles: representantes del poder político (esencialmente a través de la agencia para la defensa DARPA, que financió ARPAnet, y luego la NSF, así como las agencias de seguridad, NSA y otras) y luego los dueños de las líneas de telecomunicación utilizadas por la red. Tenemos, así que agregar el poder político y los “mercaderes”: las compañías de telecomunicación primero y luego empresas de tres tipos principales: • empresas de desarrollo de software, que vieron en internet (y la web) un campo altamente atractivo para diversos productos (como los generadores de páginas web y los navegadores), de ahí la lucha desenfrenada de empresas como Microsoft para imponer sus productos en forma casi monopólica; • empresas de “servivios distribuídos”, como las que sustentan las redes sociales y los depósitos de archivos (“nube”); • comerciantes que ven en la WWW un atractivo canal de distribución. En este mundo del comercio y de los servicios existe una lucha despiada. En el curso de los años, hemos visto cómo uno de estos actores se aprovechó de su poder ya establecido en el campo de los sistemas operativos para PC para llevar casi a la ruina a sus competidores en el mundo de los navegadores, incluyendo el suyo (Internet Explorer) en el sistema operativo mismo (Windows), adoptando una política de integración para tratar de desbarrancar a otros competidores, política que fue objetada por la Comisión Europea en 2002 y está cada vez menos aceptada por los usuarios. En el campo de las telecomunicaciones, reinan las empresas que controlan los satélites (Intelsat, Hughes, etc.) y los cables de fibra óptica (Global Crossing, etc.), los carriers o empresas de telefonía internacional, las compañías telefónicas locales y los proveedores de conexión a Internet (ISP). Ellos son los que controlan los “nodos” o puntos de intercambio y direccionamiento del tráfico, sin los cuales nada funcionaría.

268


Pero si bien estas empresas parecen pertenecer a la categoría de los mercaderes, podemos darnos cuenta fácilmente que tienen un poder que va mucho más allá de lo meramente económico. En efecto, tienen un poder de decisión al menos en dos áreas bien precisas: en la aceptación o denegación del servicio a un usuario o a otro “mercader”, y en la gestión de los protocolos de comunicación, ya que su poder técnico puede influenciar las decisiones de los organismos coordinadores (como la ICANN o el consorcio W3C, que coordina la WWW). Por lo tanto, pertenecen a la vez a la categoría de los mercaderes y la de los reguladores, de la que hemos de hablar ahora. Los reguladores son los que tienen poder para definir cómo opera internet. Inicialmente fue la DARPA y el consorcio de universidades norteamericanas que crearon ARPAnet. Luego fueron la ICANN y el W3C, que son organismos no gubernamentales sin fines de lucro, que siguen velando por el buen funcionamiento de internet como estándar libre y abierto (es decir que no le pertenece a nadie y que cualquier experto puede ayudar a perfeccionar). Pero, como lo acabamos de ver, las “telecos” (como se suele llamar a las empresas de telecomunicación) también tienen su poder, ya que fijan el ancho de banda y las velocidades de transmisión a la cual permiten el tráfico (y, como lo acabamos de ver, pueden denegar el servicio a quién sea). A estos dos tipos de reguladores hay que agregar los estados. Ellos han aparecido como un nuevo actor especialmente después del atentado a las Torres Gemelas (“11-S”) y, so pretexto de protección de la seguridad y defensa contra el terrorismo, intentan implantar numerosas medidas de control, además de un espionaje cada vez menos secreto (ver Cap.5). Es aquí donde los “colonizadores” de la red -especialmente los particulares y las pequeñas empresas- ven mayormente afectados los derechos que internet les había dado desde su nacimiento. Y son ellos los que pueden decir que se sienten traicionados por el “tecno-poder” y los reguladores. Y no podemos olvidar, para terminar, las asociaciones de productores de contenidos, principalmente del cine y de la música, que defienden a ultranza los derechos de autor y modelos de negocio a veces obsoletos.

269


8.4.2. El escaso poder de los particulares

Según los principios básicos de Internet, cualquiera debe poder acceder a los recursos de la red desde cualquier parte. Las fronteras no existen, en teoría, en el ciberespacio. Y ésto ha entorpecido bastante los esfuerzos de la justicia (a pesar de la coordinación de las policías a través de Interpol) para desterrar prácticas antiéticas o contrarias a los derechos básicos, como el racismo y la pedofilia. La pornografía es uno de los negocios más prósperos de internet. La criptografía no sólo asegura una mejor defensa de la privacidad de las comunicaciones: también facilita las comunicaciones de los narcotraficantes y varios países exigen ya que las claves sean dadas a conocer a un organismo nacional al cual la policía podrá tener acceso. Cosa extraña sin embargo: por un acuerdo tomado por el G8 en 2001, se persigue internacionalmente a los pedófilos y a los narcotraficantes (bien) pero no a los creadores de virus. ¿Por qué? (No tenemos respuesta.) Al mismo tiempo, las telecos son empresas del mundo real con sede en países reales. Y son el instrumento preferido de los gobiernos para implantar sistemas de control o bloqueos de acceso. Los poderes públicos raras veces tienen la capacidad técnica y el know-how para actuar en el ciberespacio. ¿Qué hace entonces? Presionar a las empresas que detienen el “tecno-poder” efectivo, como son las telecos y los dueños de nodos de internet. Los disidentes chinos pueden tener un servidor web instalado en otro país... pero deben hacer piruetas para no pasar por los ISP locales, controlados por el gobierno. Y sin recurrir a un caso tan extremo, consideremos solamente que el 47% de los servidores de internet se encuentran en los Estados Unidos y que las comunicaciones satelitales son controladas casi exclusivamente por ese país. Para navegar por la web de Latinoamérica a España, hay que pasar por Estados Unidos (a menos que se use una estrecha ruta que une Brasil con África). Incluso dentro de Europa, para “navegar” de un país a otro hay que pasar muchas veces por servidores norteamericanos, en virtud de acuerdos de reciprocidad entre telecos. Otra trampa de las telecos: las conexiones a Internet son asimétricas: otorgan una banda ancha para la bajada de información pero una banda estrecha para la “subida”. En otras palabras, la mayoría de los usuarios ve mermada toda posibilidad de instalar un servidor web en el PC de su casa. Era sin embargo así

270


que funcionaban los equipos que dieron origen a Internet (y con un poder de cómputo mucho menor que el que hoy tenemos en nuestros PC). Era el principio de decentralización total, que a veces se traduce también como “regla de la prioridad de la periferie” o “end to end”. Pero hoy se juega una partida de ajedrez entre la periferie y quiénes pueden controlar las líneas y los nodos de la red, o sea del tecnopoder contra los colonizadores. Es el principio “end to end” que pretendió resucitar el P2P (peer-to-peer o “entre pares”) para el intercambio de archivos. Pero como la gran masa de archivos intercambiados resultó ser música en formato MP3, la industria discográfica (mercaderes) desplegó todo su poder para bloquear y llevar ante la justicia a los infractores de la ley del copyright. Y como es difícil que encuentren a los infractores en una red decentralizada, atacan a los intermediarios: a los hosts (servidores de hospedaje de sitios o eslabones de transferencia) y a los proveedores de internet (ISP). O sea que los mercaderes dirigen su poder contra quiénes pueden actuar de reguladores, en un modelo en que éstos (las telecos) solo debían actuar como “transportistas”. Como si el capitán de un carguero debiera ser responsable por cada molécula de mercadería que un cliente coloca en uno de los contenedores que lleva en su barco de un puerto a otro. ¿Qué nos queda? La necesidad de que los “colonizadores” se organicen para ofrecer un frente común. Para ello existen algunos organismos nogubernamentales sin fines de lucro como la Free Software Foundation, las asociaciones nacionales de usuarios de Internet, la comunidad de desarrolladores de software libre, las redes y los portales inter-universitarios. En Estados Unidos, a pesar de las numerosas concesiones hechas a las medidas “antiterroristas” que atentan contra la privacidad (escasamente criticadas), subsiste la “Primera Enmienda”; pero la libertad de expresión no se resguarda tan bien en el resto del mundo y ya sabemos hasta donde llegó el espionaje de la NSA. Deberíamos propalar una nueva utopía, como sugiere Godeluck: que en cada circunscripción de cada país existan servidores donde todos los ciudadanos tengan derecho a algunos megabytes para hospedar lo que quieran publicar. Un nuevo servicio público, pero licitado a privados para desterrar las tentaciones de la censura pública. Según estudios hechos al respecto, no costaría más de seis dólares 271


anuales por contribuable. ¡Éste es el medio que la “sociedad de la información” debería exigir para poder ser digna de su nombre y restablecer en el ciberespacio la democracia de los orígenes de internet! ¿Habrá, para ello, que crear un “e-partido” (como se trató de hacer en Francia, hasta que el poder político tradicional logró hacerlo desaparecer)? Algunos países ya cuentan con un “Partido Pirata” [logo al lado] como el de Suecia, fundado en 2006 (Estaría presente actualmente en unos 60 países y existe una organización coordinadora internacional). En septiembre de 2011 en las elecciones en Berlín el Partido Pirata de Alemania obtuvo el 8,9% de los votos, consiguiendo por primera vez, al parecer, un puesto en un parlamento de la UE, aunque regional.

272


9. Prospectiva 9.1. El futuro próximo Actualmente, poco más de un tercio del mundo está conectado. Conectar a todos es uno de los mayores retos actuales porque el crecimiento del acceso no supera actualmente al 9% anual. El desafío tanto para acelerar el acceso de todos como para soportar lo que significará en materia de infraestructura y gestión es enorme, sobretodo si se acepta que tal acceso es un derecho fundamental. “Darle acceso a la web a los otros dos tercios del mundo permitirá inventar y crear cosas que nos beneficiarán a todos. Si podemos conectar a todo el planeta, nuestras vidas mejorarán significativamente” escribió Mark Zuckerberg en el Wall Street Journal (Expansión, 11/07/2014). Pew Research publicó un estudio que recoge opiniones de 1.867 expertos sobre el futuro de Internet para el 2025, teniendo en cuenta el desarrollo de la internet de las cosas (IoT). Sus principales conclusiones fueron que habrá: ● Una inmersión global invisible del ambiente de la red construido a través de la continua proliferación de sensores inteligentes, cámaras, software, bases de datos y centros de datos masivos. ● Mejoras de la realidad aumentada a través de tecnologías portátiles. ● La alteración de los modelos de negocio establecidos en el siglo 20, especialmente impactante en las finanzas, entretenimiento, editores de todo tipo y educación. ● El tagging, databasing, y la cartografía analítica inteligente continuará. Este informe forma parte de ocho investigaciones realizadas por Pew Research y la Universidad de Elon (Pew Research Internet Project, 11/03/2014).

Según Peter Diamandis, escritor del bestseller “Abundance: the future is better than you think” (Abundancia: el futuro es mejor de lo que piensa), las innovaciones tecnológicas de las que hemos sido testigos en las últimas dos décadas son sólo el comienzo de un avance tecnológico que revolucionará nuestra 273


forma de vida actual. De acuerdo con Diamandis, las innovaciones tecnológicas del futuro cambiarán el progreso humano de un proceso lineal a un proceso disruptivo de cambio exponencial (Lampert & Blanksma, p.15). “La idea de que todo puede medirse, cuantificarse y almacenarse representa un cambio fundamental para la condición humana”, dice Peter Hirshberg, presidente de Re:imagine Group (BBVA, p.403). Las innovaciones en marcha no tardarán a afectar todo nuestro comportamiento diario. Estaremos conectados en forma casi permanente, a través de diversos artefactos, siendo cada vez menos conscientes de ello, generando cantidades enormes de datos acerca de cómo vivimos nuestro día a día. Los medios de comunicación y nuestros proveedores nos seguirán a todas partes. Alvin Toffler ya advertía en 1990 que si las primeras redes eran “intrainteligentes”, entregando los mensajes tal y como son enviados y se lucha por mantener su pureza, eliminando cualquier “ruido” que los pueda falsear o alterar, “Hoy en día estamos llegando más allá de la «intrainteligencia», al campo de las redes que podríamos denominar «extrainteligentes», que no se limitan a transferir datos. Analizan, combinan, reagrupan o, de alguna otra manera, alteran los mensajes, y, a veces, crean nueva información a lo largo del proceso. Así manipulado o mejorado, lo que sale por el otro extremo es diferente de lo que entró por éste -modificado por software incorporado en las redes-.” (1990, p. 146) No podemos olvidar que el mismo hardware evoluciona con rapidez. No solo debe considerarse ya solamente la “ley de Moore”, que predijo que el número de transistores que pueden colocarse en un microchip se doblaría cada 12 meses (y de unos mil transistores en 1970 se pasó a un millón en 2005 y 5 mil millones en 2014), sino la multiplicación de los “núcleos” (procesadores) hasta en los smartphones, los nuevos materiales (nanotubos de carbono y transistores moléculares) y -sobretodo- de nuevos tipos de máquinas, como los ordenadores cuánticos o la ya más real “The Machine”, desarrollada por Hewlett-Packard. The Machine, según han comunicado desde HP, no es un ordenador personal, ni un servidor, ni un teléfono, sino que es una combinación de todas estas cosas. El

274


dispositivo estará perfectamente preparado para trabajar con enormes masas de datos. “Estaría fabricado haciendo uso de la tecnología de la fotónica de silicio, en lugar de utilizar los tradicionales cables de cobre que observamos en cualquier dispositivo electrónico. Gracias a ello, se aumentaría en gran medida la velocidad del sistema, además de reducir el consumo de energía. En HP han apostado también por los memristores, unos elemento capaces de almacenar información de forma permanente, incluso aunque el dispositivo haya sido desconectado. Por todo ello, es un dispositivo seis veces más potente que cualquier servidor actual, y consume ocho veces menos energía. The Machine o ‘La Máquina’, como ha sido denominado de forma acertada este dispositivo, podría procesar cantidades de datos de 160 petabytes en 250 nanosegundos. Lo mejor de todo es que se trata de un producto que se espera poder aplicar a dispositivos de uso común, como smartphones o portátiles, por lo que podría ser aprovechado por el gran público. De hecho, en el discurso de presentación del producto se afirmó que si se lograse reducir el tamaño de la tecnología presente en The Machine, podrían llegar a fabricar smartphones con 100 terabytes de almacenamiento.” (Wwwhatsnew.com, 18/06/2014) Si hasta ahora la información se medía en gigabytes (10^9 bytes) o terabytes (10^12 bytes), los estudios estiman un aumento a un ritmo exponencial que multiplicará la escala actual llegando a los geopbytes (10^30 bytes) en los siguientes diez años (TICbeat, 30/07/2014).

Fuente: TICbeat, jului 2014

275


9.1.1. Augurios estadísticos

Si revisamos algunas de las estadísticas que hemos coleccionado, podemos visualizar algunos de los hechos esperables para los años próximos. 9.1.1.1. Internet

La forma en que creció internet nos permite augurar que seguirá creciendo pero en forma más lenta, a medida que se acerca a una cobertura casi completa de la población mundial (la estadística sigue la típica forma de la “curva estratégica”):

Fuente: Internet users2012 forecast (stats.areppim.com, basado en datos UIT)

Ejemplificando la evolución exponencial que han tenido los servicios computacionales, se estima que desde el principio de la civilización hasta el año 2013, la humanidad había producido 5 millones de terabytes de información y se estima que de 2012 a 2020 la cantidad de datos almacenados en la nube se duplicará cada dos años, alcanzando los 40 zettabytes, es decir 40.000 millones de terabytes (DiarioTI, 8/08/2014).

276


El paso al acceso móvil será, al parecer, una parte importante de esta curva, como lo muestra la proyección realizada por la Internet Society en su reporte de 2014:

Pero si se prevé que el número de usuarios crecerá en forma más lenta, no ocurre lo mismo con los contenidos, que podría crecer a razón de unos 40% por año, según IDC:

277


El tráfico móvil total pasará de los 650 MB mensuales que de media consume hoy un europeo a más de 2,5 GB en 2019 y el vídeo podría ser el consumo móvil dominante de aquí a 2020 (Xataka, 4/06/2014). Los datos actuales muestran también que el acceso móvil desplaza progresivamente el acceso desde PC fijos:

Fuente: Morgan Stanley, via Avoca.com

Sin embargo, ésto no toma en cuenta aún la aparición de la “internet de las cosas” (IoT), que también tendrá un gran auge en los próximos años, dando a la internet global una dimensión totalmente diferente y asombrosa:

Fuente: Xively.com

278


Según Cisco, habrá 50.000 millones de dispositivos conectados en 2020. 83% de los expertos creen que tendrán efectos benéficos en nuestra vida de día a día el año 2025 (TICbeat, 7/07/2014). El gráfico anterior también nos muestra que el crecimiento del acceso móvil a internet (a través de los smartphones) también seguirá la curva estratégica, tendiendo a estabilizarse después de 2018. La movilidad también lleva a una nueva forma de concebir las aplicaciones y la conservación de archivos: todo tiende a pasar a la “nube”. Según Gartner, el HTML5 y el navegador serán el entorno de desarrollo de aplicaciones predominante. Las apps también continuarán creciendo. Ambas cosas harán que las aplicaciones tradicionales empezarán a desaparecer (Microsoft ya puso el Office en su nube). El modelo de computación nube/cliente seguirá creciendo como también los sistemas “todo definido por software”, con más aplicaciones hospedadas en la nube y el desarrollo de nubes privadas. Los servicios de máquinas inteligentes (supercomputadores), como Watson de IBM, serán cada vez más accesibles y, para 2020, podrían llegar a ofrecer asistentes personales en forma habitual (Gartner, agosto 2014). Uno de los componentes de la internet de las cosas (IoT) será su presencia en los vehículos. En este sector, se calcula que el número de aplicaciones in-vehicle en funcionamiento en el parque automovilístico mundial aumentará a 269 millones en los próximos cuatro años, según se pronostica en el informe Connected Cars: Consumer & Commercial Telematics and Infotainment 2014-2018, elaborado por Juniper Research. En 2018, “lo normal será que los vehículos de nueva fabricación ya traigan estas aplicaciones incorporadas de serie” según pronostica el autor del informe, Anthony Cox. Juniper pronostica que el mercado de apps in-vehicle moverá cerca de 1.200 millones de dólares en 2017, sobre todo en Europa y Norteamérica (TICbeat, 3/07/2014). “Vamos a vivir en un mundo en el que muchas cosas no funcionan, y nadie va a saber cómo solucionarlo”, dice Howard Rheingold, sociólogo especialista en internet. Encontrar un equilibrio entre el aprovechamiento de los nuevos servicios aportados por la IoT, pero no llegar a depender demasiado de ellos será el nuevo desafío (Jarche.com, 8/07/2014). La situación más peligrosa se dará en el campo de la medicina con implantes controlables a distancia. Se están desarrollando 279


microchips implantables capaces de entregar medicamentos por control remoto para pacientes con osteoporosis y se trabaja en hacer lo mismo para dispensar anticonceptivos. Obviamente, uno de los puntos más cuestionado sobre este método es la posibilidad de que terceros puedan llegar a controlar estos implantes ya que los controles remotos podrían ser interferidos (Infobae, 8/07/2014). Otra área riesgosa es la de los vehículos conectados. Kaspersky realizó un estudio sobre la seguridad de la conectividad en automóviles concluyendo que abren la puerta a las mismas amenazas que ya existían en el mundo del PC y de los smartphones, pero adaptadas a este nuevo medio. Entre los riesgos están el robo de contraseñas, apertura de puertas, localización del coche e incluso el control físico del vehículo (Cooperativa.cl, 7/07/2014). Según un estudio de Gardner sobre los ciclos de las tecnologías emergentes, la IoT está un ciclo máximo de expectativa, el que sitúa en 3 a 5 años el desarrollo óptimo de la misma, superando la actual falta de estándares que es su mayor problema. Al contrario, la realidad virtual, el NFC y la gamificación están en un “ciclo de desilusión” por cuanto todavía falta tiempo para que llegue a su máximo desarrollo a pesar de haber sido anunciados hace tiempo. La informática cuántica y las interfaces cerebro-ordenador estarían en un ciclo mayor de espera: más de 10 años (TICbeat, 13/08/2014). 9.1.1.2. Relaciones sociales

Una investigación de la Universidad Politécnica de Madrid prueba, aplicando la teoría de redes a la sociedad actual, que las nuevas herramientas de comunicación y de redes sociales favorecen la igualdad de oportunidades. La teoría de redes permite predecir que internet, al permitir a los individuos comerciar entre ellos directamente (o a través de un único intermediario como iTunes, Amazon, o eBay), juega un papel relevante en la promoción de la meritocracia en la sociedad. El estudio demuestra también que las oportunidades disponibles para cada individuo no están limitadas sólo por el talento, la educación o las propiedades, sino también por las conexiones disponibles para cada individuo (Sinc, 21/04/2014).

280


En cuanto a la popularidad de las redes sociales específicas, aunque ha estado creciendo y Facebook se sigue destacando (gráfico siguiente), hay indicios de que los jóvenes están empezando a emigrar hacia redes más privadas (ver apartado 8.1.5.).

Fuente: Wikipedia

Fuente: SearchMetrics.com

281


Algunos expertos estiman que Google+ podría llegar a superar Facebook hacia 2016, pero esta estimación quizás se base sobre la progresión general de las cuentas de Google y no de las cuentas activas en G+, que son mucho menos. En cuanto a Twitter, poco crece en usuarios. La consultora eMarketer calculó que tendrá cerca de 400 millones de usuarios globales en 2018, principalmente en Asia, América Latina y Oriente Próximo, muy por debajo de la cifra esperada de 1.000 millones (Noticiasdot.com, 3/06/2014). Varios expertos coinciden en que el auge de este tipo de comunicación va en desmedro de las comunicaciones cara-a-cara, perjudicando las relaciones humanas. La comunicación verbal directa se acompaña de elementos no verbales que la enriquecen y el conjunto da mejor cuenta de las emociones y sentimientos, los que desaparecen en sistemas como los de las redes sociales y el chat. Pero las redes sociales y las apps de comunicación directa (WhatsApp y semejantes) ocupan cada vez más tiempo que la navegación por la web. Aunque es difícil encontrar una estadística comparativa, la siguiente tabla muestra cómo este fenómeno aparece en los usuarios norteamericanos (Social Media, mayo 2013). El tiempo diario dedicado a las redes sociales es el mayor y ha ido creciendo mientras para los “no sociales” (diferentes de los mails, media y juegos) se ha ido reduciendo.

282


Con este desarrollo, las personas se están transformando en nodos de red. Así el sistema de las páginas web y su interconexión mediante enlaces (links) empieza a parecer anticuado, y de una “red mundial” (World Wide) se tiende a pasar a una red “centrada en egos” (SocialMedia Today, 2/01/2013). El futuro es de una red de redes personales unido a la red de sitios web y otras alternativas que aún pueden surgir. El estudio de KPCB va en la mismo dirección, mostrando al mismo tiempo que la frecuencia de las comunicaciones en grupos pequeños es inversa a la de audiencias más amplias como la de Facebook:

Fuente: M.Meeker, KPCB, 28/05/2014.

Lo que ocurre con la fotografía aficionada se inscribe en la misma línea: la tendencia es a un creciente intercambio por medio de apps como Snapchat y WhatsApp, más que a través de Facebook o depósitos como Flickr:

283


La publicidad en las redes sociales también seguirá en auge. De acuerdo con un informe de BIA/Kelsey, los ingresos por publicidad social en los EE.UU. alcanzaron casi 5,1 mil millones de dólares en 2013 y se proyecta su crecimiento hasta los15 mil millones para el 2018. En móviles sólo fue el 30% en 2013, pero se prevé que superará los ingresos por PC en 2018 (SocialMedia Today, 23/07/2014).

284


9.1.1.3. Comercio y empresas

El comercio electrónico supone el 3,7% de las ventas de artículos como alimentos, bebidas y productos de cuidado personal, según Kantar Worldpanel, que prevé un aumento de un 5% para 2016, pero responsables de la industria dicen que los fabricantes aplazan la innovación debido a estos pequeños volúmenes vendidos en internet. La mayoría de las empresas alimentarias siguen sin estar preparadas para la venta online según el analista de Rabobank John David Roeg, que agregó que deberían expandir su surtido de productos, mientras el vicepresidente de bienes de consumo de Amazon, Doug Herrington, les recriminó por la inadecuada presentación de sus artículos. Mejorar la presentación y los sitios interactivos de venta online así como las cadenas de distribución directa serán factores clave (Reuters, 1/07/2014). Si observamos la curva de crecimiento del comercio electrónico detallista, podemos esperar que seguirá creciendo:

Fuente: Smartinsights.com

El mercado de “videojuegos en la nube” generará más de mil millones de dólares en 2019, un aumento de 30%, mientras las versiones en PC y consolas tendrán una 285


caída del 12% de los ingresos según un estudio de la consultora Juniper Research (TICbeat, 24/07/2014). El e-comercio seguirá creciendo, entre otras razones, por el desarrollo de la internet de las cosas (IoT) que permitirá que se programe en forma automática la compra de productos de uso habitual como, por ejemplo, con “refrigeradores inteligentes” que detecten lo que falte y ordenen la reposición. Nuevas aplicaciones, especialmente apps móbiles, están llevando ya a diversos negocios a reconsiderar la forma en que operan. La Comisión Europea prevé un importante incremento de la economía ligada a las apps para el 2018, como se puede observar en el siguiente gráfico proporcionado por la Fundación Orange (Informe “eEspaña 2014”, M.Gimeno & col.):

El e-comercio por móviles será uno de sus componentes, donde el promedio para América Latina superará el de las otras regiones, según el Euromonitor:

286


Los medios de pago electrónicos, especialmente móviles, son otro campo en el cual se puede esperar un crecimiento significativo. La mayor parte de las empresas que adeministran tarjetas de crédito, como Mastercard, se han embarcado en el desarrollo de apps que permiten el pago directamente desde el smartphone. El sistema online Paypal también ha desarrollado alternativas de este tipo y tanto Apple como Google y Amazon cuentan con su “billetera electrónica”. Por el momento, el mayor problema es la fragmentación y la diferente disponibilidad según el país. Los expertos de Business Intelligence consideran que se necesitará mucho tiempo para lograr la universalidad lograda por las tarjetas de crédito tradicionales (Business Insider, 15/01/2014). La gamificación es una tendencia que no se ha introducido solamente en la educación. También lo está haciendo con fuerza en el comercio y el mercadeo. Básicamente consiste en la utilización de elementos y mecanismos de juego para implicar (engagement) a los usuarios en un entorno de no juego. Esta mecánica va desde la acumulación de puntos por realizar determinadas acciones, hasta afrontar tareas en formato de misiones o figurar en una clasificación en la que nos comparamos con otros. La gamificación demostró ser útil porque ayuda a generar participación, actividad y lealtad en la medida que se vinculan a motivaciones profundas como los deseos de recompensa, estatus, éxito, autoexpresión, competición o altruismo. Sin embargo, no hay que dejarse engañar: el objetivo no es un juego, es diseñar comportamientos que ayuden a cumplir los objetivos del 287


negocio, sin que ello signifique manipular. Gartner predice que para finales de 2014 más del 70% de las 2.000 compañías de mayor tamaño a escala global habrán lanzado al menos una iniciativa relevante usando la gamificación (TICbeat, 16/06/2014). Un comercio diferente que seguirá creciendo será el de las bases de datos y herramientas de análisis (big data):

Fuente: Wikibon.org

El auge de las redes sociales y del e-comercio afectará las empresas hasta sus cimientos. Se menciona a la “empresa social” como una nueva visión del modo de operar de las empresas, producto de las innovaciones en internet que llevan al cambio de una economía industrial, de fabricar y vender, a una modalidad más adaptativa, que responda a los deseos y a la participación de los interesados. Se apunta a una “economía del compartir”, que es una prueba más del cambio hacia formas más sociales de la actividad empresarial, asociada a una multitud de plataformas que están surgiendo y que permiten una mayor utilización de recursos previamente utilizados en forma menos eficiente, como el análisis de big data. 288


Pero se requiere pasar por un proceso de “aprendizaje social” dentro de la empresa, lo cual involucra disciplinas que no comunican fácilmente entre sí. Las nuevas aplicaciones de análisis automático de grandes datos crecerán en número y capacidad, economizando numerosas horas de análisis manual, economía que ya llegó a 120.000 horas en 2013, según KPCB (M.Meeker, p.86). Según el sitio especializado Information Age (21/07/2014), los principales desafíos para las empresas en el futuro son las soluciones y problemas vinculados con la computación en la nube y la virtualización (contratación de servicios en lugar de compra de software), la adaptación a la web en expansión (web-scale IT) y las redes sociales, los grandes datos (big data), las ventas online, el uso creciente de los móbiles (y su restricción en las empresas), la internet de las cosas, la tecnología “vestible” (wearable). Pero se ha de insertar el e-comercio en una perspectiva más amplia de economía digital. Desde hace algunos años se conoce el “crowdfunding”, una forma de conseguir financiación colectiva para nuevos proyectos, acumulando numerosos aportes pequeños. Y aquí está apareciendo una economía colaborativa o “economía del compartir”, en orden a sacar provecho de los activos no utilizados, en la que los dueños pueden alquilar sus bienes a otros cuando no estén en uso, creando al mismo tiempo los mecanismos de confianza necesarios para proteger ambos lados de la transacción. Si el uso compartido es cuidadoso, también puede transformarse en un negocio, y sitios web innovadores han permitido que surja este espíritu empresarial a pequeña escala, donde los apartamentos privados se convierten en hoteles o las mini-furgonetas en taxis, sin necesidad de hacer cola para ocuparlos. Así, tal como el dinero en una cuenta bancaria se presta a un prestatario que paga intereses, se puede alquilar un vehículo y generar un ingreso. Para sus propietarios, los bienes de capital que eran adquirido para el consumo propio ahora tienen un valor productivo que puede generar un ingreso. Es lo que están demostrando las “apps para compartir” como Uber, AirBnB, Lyft, o TaskRabbit, como lo ha mostrado la investigación de la Internet Society (cfr. Global Internet Report 2014). Si Airbnub revolucionó el concepto de arriendo mediante la oferta de habitaciones y fue declarado ilegal en Nueva York por presión de los hoteleros, Uber enfrenta la oposición de los taxistas en Europa, pero éstos no obtuvieron el respaldo de la Comisión Europea, que los ha emplazado a adecuarse a las nuevas tecnologías. Es evidente que Uber está mostrando una 289


nueva forma de operar en un sector que no había sido tocado por la tecnología. Y cada vez son más los negocios que siguen el modelo colaborativo de Airbnb o de Uber. Sin duda, otros sectores también podrán verse afectados por la “creatividad digital” en el futuro, como ya empezó a ocurrir en el comercio minorista y la salud. Así, por ejemplo, cualquier abogado también puede apuntarse al programa de Lawtrades para ofrecer sus servicios en la web (Genbeta, 7/07/2014). “Más nos vale ir haciéndonos a la idea, porque esto de "buscar el bien común" no es sino un ejemplo más de las tendencias en consumo colaborativo que facilita internet y que las nuevas tecnologías están poniendo al alcance de los ciudadanos más necesitados que nunca de ahorrar unos euros o conseguir algún dinerillo extra haciendo algún pequeño trabajo.” (RTVE, 15/06/2014). También se preve que el trueque, más comprendido y expuesto ahora como reutilización o recicalje, irá creciendo, así como el intercambio de libros y de casas. 9.1.1.4. Medios de comunicación

Hemos visto que la prensa tiene serias dificultades para sobrevivir en el nuevo ambiente de internet. Los lectores tienden a pasarse a los medios electrónicos y a los soportes móviles pero los editores tienen dificultades para encontrar la mejor forma de captarlos, al mismo tiempo que decaen sus ingresos por publicidad y la oferta no es suficientemente atractiva para que los muros de pago sean un medio suficiente de financiamiento. Internet puede ser un “agente destructor”: lo ha sido para la vieja industria discográfica y, en parte, para la cinematográfica (al menos en su esquema de distribución). Lo está siendo para la prensa tradicional y está atacando, aunque debilmente al parecer, la industria editorial. Todos deben readecuarse. Y lo mismo puede ocurrir en otros sectores. Se ha de esperar, por lo tanto, cambios importantes, donde todo dependerá de la creatividad para que una oferta atractiva logre convencer a los lectores. Será sin duda más adecuado hablar de “periodismo digital” que de “prensa digital”: solo se puede vaticinar que los diarios impresos irán desapareciendo con el tiempo, primero en los países más desarrollados, donde toda la población accederá a las noticias en internet. Y estas 290


fuentes serán por esencia multimediales: con textos, fotos, vídeos, etc., no teniendo ya ningún sentido distinguir entre periódicos, radios o canales de televisión cuando de la tarea periodística online se trate. El vídeo podría representar el 84% del tráfico de Internet en Estados Unidos en 2018 (donde ya llegaba al 78% a inicio de 2014) según un informe de Cisco Systems (Reuters, 11/06/2014). La televisión de alta definición (UHD o 4K) es otra promesa, pero si existe alguna posibilidad de avance en televisión abierta (TDT), hay que tener en cuenta que requiere importantes inversiones de las televisoras así como costosos receptores y que tal calidad solo se justifica en pantallas de gran tamaño (sobre 50”). Aunque Netflix anunció posibles programas en 4K, será igualmente difícil que progrese esta calidad de difusión en la modalidad de streaming: requiere un mínimo de 15 Mbps de ancho de banda para la transmisión de estos vídeos y solo en 22 países existe por ahora más del 10% de la población con dicho ancho de banda. Solo en 7 países lo tiene el 20% de los conectados, mientras Corea del Sur es el único país donde más de la mitad de la población (60%) lo tiene. Ningún país iberoamericano se acerca a lo necesario (Informe “Estado de Internet” del primer cuarto de 2014, de Akamai). Según un estudio realizado por NL Kabal y Cable Europe, un usuario medio requerirá un ancho de banda de 165 Mbps de descarga y 20 Mbps en el canal de subida en el año 2020 (ver gráfico siguiente). Se trata por cierto de lo que las empresas de cable deberían considerar y no necesariamente de lo requerido por cada cliente (Xataka, 2/07/2014). Para facilitar tanto el acceso como la difusión, Netflix desarrolló “Open Connect”, un sistema de réplica geográfica de contenidos cuyo componente base es una especie de servidor modular - un tipo de torre de discos duros gigantescos colocado en los ISP más congestionados. La versión A tiene 36 discos de 3 TB para la oferta y dos discos SSD de 512 GB para el sistema operativo. Así acercaría físicamente los contenidos lo más posible al usuario final para minimizar el tráfico. Una de estas torres puede guardar entre un 60 y un 80% del contenido que tenía Netflix en 2011 (Xataka, 2/08/2014).

291


Fuente: Cable Europe (via Xataka, julio 2014)

La TV móvil será el servicio dominante en móviles dentro de 5 años, según el informe Mobility Report de Ericsson:

Fuente: Xataka, 4/06/2014

292


Pero la televisión por internet también se irá combinando con la televisión por cable o satelital, mediante los dispositivos de streaming, como Chromecast, Android TV, Apple TV y Roku. Datos de investigación de mercado muestran que 8 millones de televisores de Apple y 4,5 millones de Roku fueron enviados en 2013 en los EE.UU. Sin embargo, la distribución se desplazará cada vez más hacia los “televisores inteligentes”, ya que los precios disminuyen y el ciclo de actualización de la televisión se acorta. Habrá más de 759 millones de televisores conectados a internet en todo el mundo para el año 2018, más del doble del número de 2013, de acuerdo a la investigación de Digital TV Research. Estos televisores conectados mejoran la experiencia cotidiana de ver televisión, ofreciendo una mejor experiencia de visualización de los programas favoritos y películas, así como una forma alternativa de interactuar con la música y fotos (Datos y gráfico de Business Insider, 2/06/2014).

En 2017, el streaming de vídeo generará más dinero que las taquillas de cine en EEUU según un informe de Pricewaterhouse-Coopers que también estima que el video bajo demanda representará 43% de la industria cinematográfica estadounidense. Los ingresos generados por la televisión, y por sobre todo por las

293


suscripciones a vídeos bajo demanda, llegarán a los USD$14.000 millones en 2018, unos USD$1.600 millones más que lo que generarán las salas de cine tradicionales (FayerWayer, 5/06/2014). De acuerdo con un reciente informe de Nielsen, el estadounidense promedio tiene acceso a cerca de 189 canales, lo cual hace difícil a los espectadores encontrar lo que desean. Luego de pasar largos minutos hojeando los canales y desplazándose por el menú de la guía, se cambian a Netflix porque “no hay nada en el cable”. Los canales de TV-cable deberán adaptarsen para facilitar más el acceso a los contenidos: deberíamos poder utilizar algo parecido al buscador de internet. Si la televisión tradicional está perdiendo cuota de mercado frente a servicios como Netflix, Hulu y Amazon Prime es justamente porque la TV actual impide el adecuado descubrimiento de contenidos manteniendo la misma guía de televisión estándar, mientras Netflix ha transformado en una ciencia la mejora de sus recomendaciones. La empresa Rovi, antes conocida como Macrovision, ya está trabajando en este tipo de tecnología, que permitiría a las compañías de cable personalizar la guía de televisión y hacer que sea más fácil encontrar lo que se quiere ver cuando se quiera, con recomendaciones basadas en lo que los espectadores han visto antes, así como sus cuentas de Facebook y Twitter para obtener información de lo que publican, siguen, y más, es decir analizando el contexto personal para proyectar los intereses (Wired, 24/06/2014). A los consumidores no les importará dónde o cómo conseguirán su contenido. No les importará si les llega a través de cable, satélite, banda ancha, Wi-Fi u otra forma inalámbrica. Tampoco les importará quién proporcionará el hardware (la televisión inteligente, set-top box, smartphone o tableta) para el servicio que ellos quieren. Quieren cada vez más un sistema integrado y fácil de usar para obtener su contenido como sea y donde sea, que venga del operador de la TDT, del de cable o de un sistema de pago como Netflix o Amazon. Según el estudio “La Experiencia Siempre en Evolución” de Ericsson, el consumidor contará en 2020 con acceso integrado y personalizado a la TV, el cine y el juego en todos los dispositivos de que disponga, y podrá mezclar los contenidos de diferentes fuentes. Proyectan que la mitad del contenido será a pedido (on demand) y que, en muchos casos, se podrá ver contenido complementario sincronizado en segundas pantallas (El Mercurio, 19/06/2014). “Si un espectador quiere ver `Suits´, `NCIS´ o `Juego de tronos´, no 294


debería tener que saber si se lo trae una aplicación de CBS o HBO” dice Gary Myer. Lo que se requiere es una plataforma neutral que permita seleccionar el contenido con facilidad, donde sea que esté, en el aparato que esté utilizando, sea cual sea. La Amazon Fire TV va en la dirección opuesta y ninguno de los actuales sistemas OTT (over-the-top, como Chromecast y Roku) es integral porque ninguna de las empresas que los ofrecen tiene experiencia real de la televisión. “Para la próxima generación de la televisión el producto de consumo debe ser el servicio, no un dispositivo con servicios de contenido individuales añadido como una ocurrencia tardía.” (G.Myer, en Wired, 18/06/2014). Así, los canales de TV-cable deberían ir adaptándose: en vez de pasar unos minutos hojeando los canales y desplazándonos por la guía, canal por canal, para ver lo que nos ofrece, deberíamos poder utilizar algo parecido al buscador de internet. La empresa Rovi ya está trabajando en este tipo de tecnología, que permitiría a las compañías de cable personalizar la guía de televisión y hacer que sea más fácil encontrar lo que se quiere ver cuando se quiere ver. Sería especialmente conveniente como parte de la “televisión interactiva” o Smart TV, que se pretende propia de los “televisores inteligentes” conectados a internet, y más aún de la televisión híbrida o HbbTV (Hybrid Broadcast Broadband TV), que permitiría el uso simultáneo de una segunda pantalla, tableta o smartphone, para acceder a información extra sobre lo que se está visualizando. Ya existe un proyecto europeo de HbbTV llamado TV-Ring en el que España, Alemania, Francia, Bélgica y Holanda tratan de establecer las bases y probar experiencias piloto (TICbeat, 21/10/2013).

295


Fuente:IP Cast, India. 9.1.1.5. Educación

Aunque es difícil imaginar como será la enseñanza en el futuro debido a que los jóvenes de hoy tienen una experiencia de los medios diferente de sus mayores y que se están abriendo espacio nuevos sistemas como la realidad aumentada y la realidad virtual, es de esperar que la enseñanza se adapte cada vez más a estas nuevas tecnologías, tanto integrándolos en las salas de clase como ofreciendo más alternativas a distancia:

Fuente: elearninginfographics.com, 1/12/2013

296


Comparto plenamente la opinión de Manuel Area cuando advierte que los sistemas de enseñanza han de adaptarse a la nueva realidad, en particular a nivel universitario, donde las clásicas “clases magistrales” tienen cada vez menos sentido (ver Colle, 2002d): “Una consecuencia o efecto de todo ello, es que el e-learning, en mayor o menor medida, empieza a cuestionar el modelo organizativo del horario académico universitario que tiene una tradición de varios siglos. Por ello, en la actualidad, la aplicación del e-learning en las instituciones universitarias tradicionales está generando, con relación a la variable tiempo académico, situaciones conflictivas y contradictorias cargadas de tensión ya que los viejos modelos organizativos siguen perviviendo con fuerza, a pesar de que estén emergiendo nuevas tendencias y necesidades de organización docente de naturaleza virtual. [...] En mi opinión, esta situación no podrá mantenerse por mucho más tiempo, lo que generará, a medio plazo, una crisis profunda del modelo organizativo del tiempo y el espacio en las universidades presenciales tal como lo hemos conocido hasta la fecha.” (Manuel Area, INED21, 29/07/2014).

Fuente: The Education Sector Factbook 2012, via Aurion Learning

Si en 2014, el e-learning era una industria de 56,2 mil millones dólares, se calcula que duplicará su volumen hasta superar los 100.000 millones de dólares en 2015. Para 2019 se espera que la mitad de los estudiantes norteamericanos estudiarían online (Online Business School, 21/07/2014). La mayor tasa de crecimiento estimada de estos 5 años corresponde al mercado de e-learning de Asia con 17,3%, mientras en Europa Occidental es del 5,8% (Elearning Industry.com). En América Latina para esta industria 2014 sería el punto de inflexión para su crecimiento. Cuatro países se erigirán como los de mayor crecimiento: Brasil con una expansión 297


del 21,5 %, Colombia con un 18,6 %, Bolivia con un 17,8 % y Chile con un 14,4%.

El mercado de los juegos de aprendizaje era de US$ 3,9 mil millones en 2014, y se espera que crezca a 8,9 mil millones en 2017, según VentureBeat. Se estima que más del 70 por ciento de las corporaciones encuadradas en el Global 2000 de la revista Forbes tendrán, al menos, una aplicación de formación interna relacionada con el gamificación (aplicación de juegos de aprendizaje) y que esta actividad se convertirá en una tendencia crecimiento y de peso en los próximos años (Online Business School, 21/07/2014). Si bien internet permite proporcionar educación en cualquier momento, lugar y ritmo, ésto se hace efectivo solamente para los relativamente pocos interesados en su propio perfeccionamiento profesional, específicamente a través de los MOOC. Para el sistema educacional, todo depende -generalmente- de la iniciativa y preparación de los profesores, para los cuales internet aún se presenta como una fuente “complementaria”. El e-learning como reemplazo directo de la sala de clase -en el sistema tradicional- parece aún excepcional. El que internet ofrezca a los individuos fácil acceso a fuentes de conocimiento teórico y práctico fuera de su

298


entorno inmediato no parece haber ingresado en la conceptualización profunda del sistema educativo, aunque ha despertado el interés de no pocos especialistas. “En ocasiones se argumenta que internet favorece formas de creación y consumo de conocimientos que se alejan mucho de las premisas epistemológicas de la enseñanza formal y la instrucción de masas. Las relaciones en red que mantienen los usuarios de internet con la información online han provocado una reevaluación de la naturaleza del proceso de aprendizaje en su conjunto. Ya hay especialistas que empiezan a difundir conceptos como «inteligencia fluida» y «conectivismo», en la convicción de que el aprendizaje por internet está supeditado a la capacidad de acceder y utilizar información distribuida a medida que se necesita. Desde esta perspectiva, el aprendizaje se entiende como la capacidad de conectarse a nodos y fuentes de información especializada cuando y como se necesite.” (Neil Selwyn, en BBVA, 2014, p.199) Éste es un cambio de rumbo que los especialistas empezaron a sopesar. Es evidente que “internet desafía las fronteras que establece la educación oficial entre expertos y neófitos, los procesos de producción y consumo de conocimiento, y también las convenciones temporales y espaciales para el aprendizaje” y que obliga a introducir prácticas de aprendizaje radicalmente diferentes y de relaciones sociales distintas (ibidem, p.200). Diversas propuestas de “escuela 2.0” han surgido, como también unas de “desinstitucionalización” de la enseñanza. Hemos señalado a modo de ejemplo (apartado 7.4.2.) como la “gamificación” puede entrar a formar parte del nuevo modelo. También se dispone ya de algunos modelos de “aulas virtuales” que podrían ser la base de la evolución futura. El modelo Wiki de creación colectiva de contenidos, conocido a partir de la Wikipedia, representa otro aporte significativo. “Actualmente se está imponiendo entre muchos educadores la idea de que aplicaciones populares controladas por el usuario, como Wikipedia, permiten a los individuos participar en actividades de aprendizaje sin precedentes que son constructivas personalmente y significativas desde el punto de vista público.” (Neil Selwyn, en BBVA, 2014, p.202)

299


Se ha de recordar sin embargo, que “La historia de la tecnología educativa de los últimos 100 años nos enseña que un cambio rara vez es tan instantáneo o tan extensivo como a muchas personas les gustaría creer. De hecho, la historia de las tecnologías educativas modernas (empezando por el decidido apoyo de Thomas Edison a las películas educativas en la década de 1910) se ha caracterizado en líneas generales por una serie de complejas relaciones entre educación y tecnología en las que ambas se condicionan mutuamente. En otras palabras, las nuevas tecnologías rara vez tienen un impacto directo y unívoco o un efecto predecible sobre la educación.” (ibidem, p.205). ¡Cambios radicales en el sector de la educación no son de esperar a corto plazo! 9.1.2. Las relaciones humanas y tecnológicas

¿Qué problemas y temores tendremos dentro de 25 años sobre el modo en que interactuaremos con las computadoras? La revista New Scientist analizó el tema según las predicciones de los principales investigadores en el área. Los chips cerebrales harán que no distingamos del todo cuáles son nuestros propios pensamientos o meras ideas implantadas por los anunciantes. Los vehículos que se manejan solos relegarán a los conductores humanos tradicionales, que sólo podrán estar al volante en parques especiales de recreación (BBC, 13/05/2014). ¿Podrá la tecnología reemplazar las relaciones humanas a futuro? Es lo que plantea la película “Ella” de Spike Jonze, nominada a cinco premios Oscar y ganadora en la categoría a Mejor Guión Original, donde el protagonista se enamora de la voz femenina de un sistema operativo con inteligencia artificial. El planteamiento es extremo, pero no es el único en el campo de la ciencia ficción (pensamos también en la novela “El hombre terminal” de M. Crichton y la serie de los robots de I. Asimov), lo cual da cuenta de un trasfondo de preocupación frente al impacto de la tecnología. Lo comentó Sherry Turkle, académica de Estudios Sociales de la Ciencia y Tecnología del Instituto de Tecnología de Massachusetts, en una charla TED de 2012: “Algún día la versión avanzada de Siri (el asistente por voz del

300


iPhone) va a ser nuestra mejor amiga, alguien que nos escuche cuando otros no lo hagan”. 9.1.3. La política

Las nuevas tecnologías han acabado con la división entre medios de comunicación y el resto de la vida cotidiana en la cual solía descansar la mayor parte de la comunicación política. “Como las relaciones de poder siempre se han basado en el control de la comunicación y la información, que nutren las redes neuronales constitutivas de la mente humana, la proliferación de redes horizontales de comunicación ha generado un nuevo paisaje de cambio social y político, a través de un proceso de desintermediación de los controles gubernamentales y corporativos sobre las comunicaciones. Este es el poder de la red, por el que los actores sociales construyen sus propias redes según sus propios proyectos, valores e intereses. Las consecuencias de este proceso son impredecibles y dependerán de determinados contextos. La libertad, en este caso la libertad de comunicarse, no indica por sí sola el uso que de ella hará la sociedad.” (M.Castells en BBVA 2014, p.147) La política debe “mostrar una notable capacidad de innovación, siguiendo los pasos de la cultura de las redes sociales reinventada cada día por los usuarios” agrega Manuel Castells (2008). “La extensión de las movilizaciones políticas instantáneas utilizando teléfonos móviles, y con el apoyo de Internet, está cambiando el panorama de la política. Para los gobiernos cada vez es más difícil ocultar o manipular la información. Las tramas de manipulación se conocen de inmediato gracias a una mirada de “ojos”, al tiempo que miles de personas son invitadas al debate y llamadas a la movilización, sin una coordinación central, pero con un propósito compartido, a menudo centradas en pedir o forzar la dimisión de gobiernos o de dirigentes gubernamentales.” (Castells, 2008) Esta realidad podría llegar a afectar la definición y los límites del Estado-nación como unidad relevante para definir un espacio público, debido al surgimiento de las identidades comunitarias, estima Castells. 301


“El principio de ciudadanía entra en conflicto con el principio de la propia identidad. El resultado es una crisis visible de la legitimidad política. La crisis de la legitimidad de los Estados-nación conlleva la crisis de las formas tradicionales de la sociedad civil, en sentido gramsciano, que dependen en gran medida de las instituciones del estado. Pero no existe un vacío social ni político. Nuestras sociedades continúan funcionando social y políticamente, trasladando el proceso de formación de la opinión pública de las instituciones políticas al ámbito de la comunicación, organizada en gran parte en torno a los medios de comunicación” y especialmente de los social media. “En gran medida, la legitimidad política ha sido sustituida por el marco comunicativo de la opinión pública en la sociedad red.” (ibidem) Es probable que surja una nueva forma de sociedad y de espacio público, junto con la transformación del entorno de los medios de comunicación, donde las redes sociales tendrían un rol cada vez más importante. Así, entraríamos en una nueva etapa histórica. 9.1.4. Seguridad vs. privacidad

“En el futuro, la seguridad se volverá una entidad que se preocupará de tí como individuo. Cada uno de nosotros será protegido por un guardián digital que proactivamente monitoreará cosas que tú no puedes, y te protegerá y alentará según tus intereses. Si tu guardián ve comportamientos fuera de lo usual en tu “persona digital”, inmediatamente entrará en alerta y pondrá fuera de combate a quien haya usurpado tu identidad y tus datos. Todo esto es posible gracias a la computación cognitiva, donde las máquinas pueden aprender nuestros comportamientos, mejorar la experiencia del usuario y proteger nuestra información personal. En los próximos cinco años, la seguridad se volverá más ágil y contextual, tomando las decisiones adecuadas por ti. Analizando constantemente datos pasados y tu flujo diario de eventos, buscará desviaciones de conducta que pueden ser precursores a un ataque y al robo de tu identidad. Ya no sólo el banco decidirá qué transacciones le parecen sospechosas.” (Dr. J. R. Rad, investigador de IBM; https://www.youtube.com/watch?v=al8ng82nRss)

302


Pero si se pueden esperar mejoras en el campo de la seguridad informática, es altamente probable que se deba pagar con un deterioro de la privacidad, a juicio del grupo del Pew Research Internet Project, que considera que los cuatro principales problemas, en la próxima década, serán que: • “Las acciones de los Estados para mantener la seguridad y el control político conducirán a un bloqueo más importante, filtrado, segmentación y balcanización de internet. • La confianza se evaporará a raíz de las revelaciones sobre el control por el gobierno y las empresas, y es probable una mayor vigilancia en el futuro. • Las presiones comerciales que afectan a todo, desde la arquitectura de internet hasta el flujo de información, pondrán en peligro la estructura abierta de la vida en línea. • El deterioro de la confianza, la intromisión de los Estados y la presión de los intereses comerciales son las amenazas para el futuro de la Internet que los expertos en tecnología más temen.” (Pew Research Internet Project, 3/07/2014). El Centro de Investigaciones Pew informó que 35% de sus encuestados, todos expertos en amenazas en la red, estuvieron de acuerdo con la siguiente afirmación: “Para 2025, habrá obstáculos y cambios significativos para peor con respecto a la forma con la que la gente consigue y comparte el contenido en línea”. “Los especialistas notaron que existe una tendencia mundial hacia la regulación en internet por parte de regímenes que enfrentaron protestas aumentando la vigilancia de los usuarios en línea”, señalan (El espectador, 3/07/2014). “Las previsiones de los expertos en tecnología anticipan una brecha imposible de superar entre los que se sentirán oprimidos por la excesiva vigilancia típica de una sociedad interconectada y los que usarán estas técnicas en su propio beneficio”, dice Mihaela Marín, tomando en cuenta la multiplicación de datos personales asociados a la internet de las cosas (especialmente los wearables) (TICbeat, 7/07/2014). Sigue presente la amenaza de Big Brother, en una forma próxima a la anunciada en la serie de TV “Person of Interest”.

303


Los problemas de seguridad informática también serán cada vez más importantes para las empresas. Gartner indica que en torno al año 2020 el 60% de los negocios digitales sufrirán grandes fallos en sus servicios debido a la incapacidad de sus departamentos de TI de gestionar el riesgo que trae consigo el avance de la tecnología. Será indispensable que cuenten con expertos para hacer frente a esta realidad marcada por el aumento de los negocios en línea y de la transferencia de datos en la internet de las cosas. Ésto dará lugar a un nuevo e importante rol: el de director de riesgo digital o DRO (digital risk officer), que deberá atender a los aspectos tanto legales como de privacidad, y de operaciones, ventas y marketing digital. La última encuesta de directivos realizada por la consultora Gartner (“2014 CEO and Senior Executive Survey”) apunta que en 2017 un tercio de las grandes empresas vinculadas a actividades y modelos de negocio digitales tendrán un director de riesgo digital o similar en su equipo (TICbeat, 14/07/2014). 9.1.5. ¿Una internet diferente?

A futuro “la red va a cambiar de manera sustancial, desaparecerá y será sustituida por una nueva forma de ciberesfera, porque en la práctica solo existen, básicamente, dos opciones para organizar la información, y la red eligió la equivocada”, dice David Gelernter, doctor en Ciencias Informáticas (en C@mbio, BBVA, 2014, p. 48). La información se acumula hoy según un esquema espacial, habitual al manejar bases de datos. Pero en internet, dice, lo que más interesa es la información reciente y, por lo tanto, un modelo cronológico podría ser más apropiado. En realidad, el problema de mejorar el manejo de la información en la web ha sido abordado hace ya varios años y la propuesta, que llegó a una primera propuesta 2004, ha sido la “web semántica”. Se basa en la idea de añadir metadatos semánticos y ontológicos10 a las páginas web, describiendo su contenido en una forma que pueda ser fácilmente interpretado por las máquinas. Desde el 2004 existe para ello un estándar llamado OWL, pero requiere que el creador de cada página web traduzca “a mano” su contenido en marcas OWL, lo que es inviable 10

El término ontología en informática hace referencia a la formulación de un exhaustivo y riguroso esquema conceptual dentro de uno o varios dominios dados, con la finalidad de facilitar la comunicación y el intercambio de información entre diferentes sistemas y entidades.

304


debido al gran volumen que tiene la web y su imparable crecimiento. Las bases de datos también deberían ajustarse a un modelo específico, el RDF. Últimamente, sin embargo, los flujos RSS (como los que muchos diarios y revistas ofrecen como modo de acceso rápido) y las secuencias ordenadas por el tiempo o lifestreams tienen una presencia cada vez mayor en la red. El lifestream puede ser una secuencia narrativa heterogénea y puede consultarse por contenidos y en orden cronológico. Los lifestreams se inventaron a principios de la década de 1990 como un sistema de gestión de datos que integra documentos y mensajes en sistemas de archivos y aplicaciones de memoria en tiempo real. Los encontramos hoy en nuestros correos electrónicos, en secuencias de chat, en Twitter y en los “muros” y biografías de Facebook. Acumulados en la “nube”, nos son accesibles en todas las plataformas y podemos recorrerlos en forma inversa (hacia el pasado) o mediante sistemas de búsquedas de contenidos. En materia de procesamiento informático, se basan en un álgebra de flujos mientras la acumulación y las bases de datos tradicionales operan sobre la base del álgebra de gráficos (“espacio de tuplas” y álgebra de conjuntos) que es en realidad más compleja. Nos encontramos aquí, en realidad, frente a dos modelos de tratamiento de datos que son los mismos que se encuentran en la memoria humana: uno es semántico y el otro es episódico (es decir histórico). La memoria semántica se visualiza como espacial porque se estructura en forma de árbol: en cada concepto (su unidad básica) existe una información “por defecto” que corresponde a las propiedades de la clase a la cual pertenece, y que este concepto hereda. Nuestra mente maneja con suma facilidad una multitud de categorías, ejemplos y relaciones, que podemos evocar e incluir si queremos, que se derivan unas de otras y que se enlazan a diferentes niveles. El sistema que controla el funcionamiento de la mente determina cuál es el nivel de detalle adecuado en cada situación, y lleva a extraer de la memoria ciertos conjuntos de datos y relaciones, con mayor o menor especificidad. Lo mismo ocurre cuando se trata de agregar algo. La memoria episódica funciona de una manera diferente. Su núcleo es la “acción” y las acciones se suceden en el tiempo, tal como las vivimos. Así, esta memoria opera con los atributos que permanecen siempre vinculados al núcleo que identifica la “acción”: sujeto, momento, lugar, etc. Del análisis de la secuencia de 305


acontecimientos se deducen nuevas relaciones, especialmente de identidad: quien, cuando, donde, etc., y descripciones que se enlazarán con los elementos de la memoria semántica (cfr. Colle, 2002, pp.140-146)

La web actual, en realidad, es un reflejo de la estructura del hardware que la soporta, nos recuerda Gelernter: los “sitios” se encuentran en los servidores que contienen los datos (en diferentes países) y a los que debemos acceder a través de las redes. Pero la suma de los lifestreams está conformando un worldstream y cada nuevo aporte empuja a todos los anteriores hacia atrás. Recordamos el sistema Hypercard que trajeron los Macintosh Plus en 1987: se presentaba como un sistema de pilas de tarjetas -como lo haría un rolodex-, cada una encima de la anterior, al mismo tiempo que el primer sistema de “navegación” hipermedial entre estas tarjetas. El Hypercard demostró lo fácil que podía ser conservar información de esta manera y utilizarla mediante hipernavegación. También ofreció un modelo perfectamente adecuado para combinar tanto la memoria episódica como la semántica y, por lo tanto, de concebir y desarrollar -hoy o mañana- internet como un worldstream con mecanismos de acceso tanto históricos como semánticos, con navegadores optimizados para acceder de este modo a los datos. Lo importante sería que todo esté construído siguiendo una misma estructura (un estándar aún por 306


definir), que permitiría entonces aprovechar al máximo el álgebra de flujo que permite con suma facilidad combinar múltiples lifestreams, según los intereses de cada usuario, como por ejemplo los flujos de todos los amigos, para quedar al tanto de sus actividades, o los de diversos medios de prensa (como hacemos hoy, ya, con los agregadores de RSS). “Lo importante no es el ciberespacio, sino el cyberflow”, nos dice Gelernter (BBVA, p.58). Evernote es una aplicación que ha asumido resueltemente el desafío de combinar las perspectivas semántica y episódica. Se concibió desde el principio como una “libreta” con una o varias pilas de “notas”, que pueden contener tanto textos como páginas web, vídeos, etc. Aunque actualmente podemos también “etiquetar” las notas (lo que equivale a aplicar descriptores), se propone liberar al usuario de este procedimiento. En busca del uso más eficaz de las tecnologías de la información “para el aumento de la inteligencia humana”, constituyó un equipo especial para explorar nuevos mecanismos de manejo de la información acumulada. Con especialistas en aprendizaje automático, este equipo se empeña en desarrollar mecanismos de identificación de contenido que extraigan el sentido de los datos sin que los usuarios deban registrar descriptores para cada nueva nota. Hoy Evernote ya es capaz de entender las diferentes partes de una frase escrita en inglés, y es capaz de sacar toda la información relevante de la cuenta del usuario. “Queremos eliminar la interacción manual entre la aplicación y el usuario, y hacerla inteligente”, dice Zeesha Currimbhoy, líder del equipo de ‘Inteligencia Aumentada’. Aparte del problema de la interpretación, otro problema es que sus algoritmos deben tener en cuenta la diferencia entre usuarios que tienen unas diez notas y otros que tienen miles. “No tenemos un problema de datos grandes (big data), sino 100 millones de problemas de datos más pequeños”, dice Currimbhoy. Y luego deberán abocarse a la interpretación de textos en otros idiomas, además del inglés. “Deseamos que la información complemente sus pensamientos”, dice Phil Libin, CEO de Evernote. (SocialMedia Today, 30/05/2014).

307


9.2. Transición11 El actual “es el turbulento panorama en el que es necesario contemplar el nacimiento y la caída de civilizaciones y de naciones, y que explica por qué la mayoría de las evaluaciones actuales del poder demostrarán ser equívocas”, decía Toffler en 1990 (p.490). Con el advenimiento de la red, siguiendo las ideas de Toffler, se habló inicialmente del paso a una “era de la información” y, con el desarrollo de la World Wide Web, hace una década se habló de una nueva “era del conocimiento”. Pero lo ocurrido desde entonces parece obligar a introducir otra perspectiva, la de la era de la “sociedad-red”. Los usuarios han sido seducidos y han dado un uso mucho más masivo a las nuevas aplicaciones de comunicación interpersonal. De ello concluyó Manuel Castells que “La nuestra es una sociedad red, es decir, una sociedad construida en torno a redes personales y corporativas operadas por redes digitales que se comunican a través de internet. Y como las redes son globales y no conocen límites, la sociedad red es una sociedad de redes globales” pero es egocéntrica debido a la mayor individualización resultante de las nuevas formas de organización de la actividad económica, la política y la vida social. “La sociabilidad se reconstruye en forma de individualismo y comunidad en red a través de la búsqueda de personas afines, en un proceso que combina interacción virtual (online) con interacción real (offline), ciberespacio con espacio físico y local.” (Castells, 2014, pp.139-140) 9.2.1. En la frontera del caos

Según Niklas Luhman, el sistema social no está compuesto por individuos -seres biológicos- sino por interacciones, es decir, por los fenómenos de comunicación. Es evidente que nuevos medios de comunicación introducen nuevas formas de interacción y que las nuevas interacciones modifican el uso dado a los medios de comunicación existentes. Al aumentar el número de los elementos que componen un sistema, “muy pronto se alcanza un punto a partir del cual se hace imposible que cada elemento se 11

Parte del artículo del mismo autor publicado en 1995 en Cuadernos de Información PUC n°10 .

308


relacione con todos los demás” (Luhman, 1990, pp. 68-69). Esta complejidad “significa obligación a la selección, obligación a la selección significa contingencia, y contingencia significa riesgo” (ibidem, p.69). Esto explica que se puedan formar sistemas muy distintos a partir de unidades muy parecidas. “Los sistemas complejos no sólo deben adaptarse a su entorno sino también a su propia complejidad” por lo cual se ven “obligados a la autoadaptación, y esto en el doble sentido de una propia adaptación a la propia complejidad” (ibidem, p.71). Pero, ¿de qué modo se producirá esta adaptación? Hacia 1980, Steven Wolfram descubrió que, aparte de los tres estados clásicos de los sistemas dinámicos (estable, periódico y caótico), existe un cuarto estado, en el límite entre orden y caos. Tres años después, Chris Langton pudo mostrar que esta cuarta clase es la que exige el mayor volumen de cálculo y el manejo de la mayor cantidad de información. Ahí, en la zona de transición entre orden y caos, “se presiente que el tratamiento de la información constituye uno de los elementos importantes de la dinámica de un sistema”. Norman Packard, que hacía investigaciones paralelas, dio a este cuarto estado el nombre de “frontera del caos”. Investigó cómo el proceso evolutivo se encuentra en esta área y descubrió -con autómatas celulares y reglas que se modifican mediante un algoritmo genético- que las reglas de cambios internos se modifican solas en la dirección de una eficiencia máxima, siempre más cerca del límite del caos (Lewin, pp.56-60). Las leyes de los sistemas abiertos de alta complejidad (como lo son el universo y también el sistema social) indican que esta situación -en la “frontera del caos” -es pasajera y ha de conducir sea a una destrucción del sistema sea a un salto hacia un orden superior, donde una nueva complejidad será regulada por nuevas reglas de ordenamiento. Por esta razón, la situación de los medios de comunicación puede ser interpretada de dos maneras, según se estime que se está por traspasar la frontera del caos o no. Si no llegamos aún a ella, deberíamos observar una diversificación que exigirá una mera readecuación (modelo de los “paisajes adaptativos”); si estamos por cruzarla, el cambio obligará a una reestructuración completa del sistema (modelo del “salto cualitativo”). 309


9.2.2. El modelo del salto cualitativo

Los estudios hoy vigentes sobre el comportamiento de los sistemas abiertos complejos (también llamados “estructuras disipativas”) muestran, como hemos dicho, el rol importantísimo de la información cuando su dinamismo los lleva hacia niveles de mayor complejidad. El Premio Nobel de Física Ilya Prigogine, experto en estructuras disipativas, ha mostrado cómo dicho dinamismo va en sentido inverso de la temida entropía termodinámica, que tiende a la paralización y destrucción de los sistemas. Y la evolución de los sistemas vivos se explica, hoy, por este principio de complejidad creciente y de saltos cualitativos cuando la situación se acerca a la “frontera del caos”. Cuando un sistema complejo llega a una situación tal que su propia complejidad podría generar el caos (y así, su destrucción), aparecen fenómenos intrínsecos -relacionados con el procesamiento de mayor cantidad de información- que generan una profusión de nuevas propuestas organizativas, las cuales son puestas a prueba en la siguiente fase. Las que den los mejores resultados serán seleccionadas, mientras las otras desaparecerán. Es el típico fenómeno en forma de paraguas (ver gráficos siguientes), que se observa en el proceso evolutivo: multiplicación de especies seguida de selección y desarrollo de las más eficientes mientras las otras decaen, crecen los subsistemas probados, se multiplican las interacciones y se llega a un nuevo umbral cercano al caos, con la repetición del proceso. Mirar de este modo la diversificación de los medios de comunicación implica considerar una escala temporal más amplia, en la cual el siglo XX correspondería a una etapa de multiplicación de propuestas. Hemos sido testigos de una enorme y rápida evolución de los computadores, desde máquinas que ocupaban toda una sala a los PC y las tabletas, cada modelo más poderoso que el anterior. Todo lo cual parece haber llevado a un nuevo “salto cualitativo” con el anuncio de “The Machine” de Hewlett-Packard, los trabajos de IBM sobre nanotubos de carbono, las pruebas de redes neuronales artificiales y otros que podrán dar lugar a una nueva fase de diversificación.

310


De ello deberíamos deducir, primero, que no hay seguridad de que el proceso creativo haya terminado tampoco en el campo de los medios de comunicación: es más probable que surjan nuevos medios o, al menos, que ocurran cambios sustantivos. Pero también deberíamos colegir que, si bien cada uno crea su nicho (a la manera de los “paisajes adaptativos”), no hay seguridad alguna de que todos permanezcan. A largo plazo, ya sabemos - porque ya ocurrió y porque las reglas económicas resultan ineludibles - que las empresas más débiles han de desaparecer. Pero también queda pendiente el saber si algunos medios como tales (y ya no en el nivel más fragmentario de las empresas que administren un solo medio) podrán subsistir sin transformaciones tan radicales que los harán irreconocibles (convirtiéndolos en realidad en medios nuevos y diferentes). Paralelamente, las acciones de los usuarios están demostrando una dinámica similar en su desarrollo y diversificación de redes sociales. A la multiplicación 311


inicial “intrasitio” de contactos uno-a-muchos (el modelo de Facebook) está sucediendo una fase de establecimiento de nuevas formas de contacto uno-a-uno (mensajería, sistemas de trueque) y de sistemas colaborativos (compartir vehículos, residencias, etc.) mediante múltiples aplicaciones especializadas. En otras palabras, vemos un nuevo fenómeno de especialización y organización que introduce orden (especialmente a través de micro-redes que se enlazan por sí solas) en el aparente caos de las relaciones interpersonales digitales. Dado que lo propio de los sistemas complejos consiste en procesar información y contrarrestar de este modo la entropía, no es de esperar el colapso de nuestra cultura debido a lo que ocurre en materia de creatividad tecnológica en el área de las comunicaciones. Al contrario. Lo que sí se puede esperar - aunque es imposible predecir cuánto tiempo pasará hasta una estabilización - es que un nuevo orden, más eficiente, habrá de reemplazar el que conocemos ahora. No es, entonces, de extrañar que, en medio del aparente caos de los innumerables enlaces entre páginas y sitios web (y solo considerando los sitios web), se observe ya una tendencia al orden, aunque aún marginal considerando la enorme multitud de sitios y páginas. La correspondiente topología de la red ha sido investigada, entre otros, por Young Hyun en la Cooperative Association for Internet Data Analysis (CAIDA). Es posible representar la geografía (o mejor dicho la topología) de la web mundial de múltiples formas. La técnica llamada Walrus (usada por Hyun) es la que mejor muestra la estructura significativa que está surgiendo y que vemos al lado. Nos muestra que hay un grupo central de servidores fuertemente entrelazados (con muchos enlaces entre sí), mientras hay pequeños grupos de servidores que apuntan 312


a ese bloque central y otros pocos hacia donde apuntan algunos de los que pertenecen al núcleo central (Claffy, Hyun & alt., 2009). Éste es un atisbo del orden que surge en materia de contenidos (información) en la web. La prometida “web semántica”, de cada vez más dudosa aparición (al menos como fue formulada), debería permitir que este tipo de núcleo lleve realmente a una nueva fase de integración del conocimiento. Pero ha surgido la `Internet de las Cosas´, que representa una gran incógnita y podría alterar el panorama general. ¿Cómo se integrarán todos estos datos? Ya hoy los “big data” plantean desafíos de diversos tipos que podrán parecer -proporcionalmente- ridículos en el futuro en comparación con los de la IoT. ¿Serán suficientes y adecuados los avances en materia de inteligencia artificial, tan decepcionantes hasta ahora? De serlo, podríamos ver surgir una nueva fase de “orden” en el campo del conocimiento de acceso universal. Como lo describe von Wodtke en un libro sobre la mente y los medios de comunicación: “La sociedad de hoy se mueve hacia una era de la información donde los computadores han de permitir a la gente que trabaje interactivamente con los multimedia. Esto puede estimular un nuevo Renacimiento, si la gente logra aprender a usar creativamente estas herramientas. El desafío consiste en enhebrar la mente con estos nuevos medios. ¿Cómo transfiere usted sus imágenes mentales a un formato digital? O, inversamente, ¿cómo se relaciona usted con lo que ve en una pantalla de computador?” (Von Wodtke, p.20) Esta adaptación de la mente sin duda ha comenzado ya (ver apartado 8.1.1.). Con las tecnologías en desarrollo es probable que pronto estaremos guardando “en la nube” lo que veamos y escuchemos con solo pensar en ello (ya hay cintillos de ECG capaces de activar las Google Glass y solo falta que mejoren un poco), lo cual podría seguir degradando nuestra capacidad de memorizar. Los sensores pegados al cuerpo podrán avisar a nuestro médico o a los servicios de urgencia si enfermamos y nuestro ADN podría servir de contraseña. El concepto de privacidad podría volverse obsoleto y los riesgos de seguridad de los datos cada vez mayores. La web podría ser tridimensional y las comunicaciones incluso podrían ser 313


holográficas. Y con la internet de las cosas es también probable que dejaremos de pensar en muchas cosas, porque funcionarán por sí solas (MarketingTechBlog, 16/07/2014). Pero, antes de pasar a perspectivas más lejanas, debemos recordar que la tecnología sigue ausente o solo presente de manera parcial en las vidas de muchas personas; incluso en sociedades económicamente avanzadas entre el 10% y el 30% de los habitantes no dispone de conexión a internet de banda ancha. Falta por lo tanto, en los años venideros, solucionar los problemas de acceso en el Tercer Mundo y en los sectores desfavorecidos de muchas naciones, cosa que es preocupación de algunas agrupaciones de empresas como Internet.org, que pretende conectar al cerca del 60% de la población mundial que actualmente no cuenta con acceso.

9.3. Perspectivas lejanas12 En 1995 había aproximadamente 50 millones de aparatos conectados a internet. En 2011 el número de conexiones pasaba de los 4.300 millones; a fines de 2013, llegamos a 7.100 millones, y para 2020 se calcula que habrá además unos 15.000 millones de objetos conectados. Con un cambio exponencial de este tipo es muy difícil predecir cómo se van a usar los nuevos aparatos, medios y datos, en qué nos van a beneficiar o perjudicar. Quienes se propusieron en la década de 1990 predecir el futuro digital, como Al Gore y Bill Gates, vieron en internet una “superautopista” de información, pero no se imaginaron ni las redes sociales ni los hogares conectados ni menos la “internet de las cosas”. ¿Con tantas fuentes de datos -personas y máquinas-, podrán las redes y los servidores absorber y gestionar todo lo producido? Una sola cosa parece segura: vivimos en un mundo hiperconectado y, salvo que ocurra una crisis energética catastrófica, la hiperconexión deparará a nuestros descendientes una perspectiva y un modo de vida muy diferente del que conocimos al nacer. En estas condiciones, “otear el futuro” solo puede hacerse entrando en otro campo de reflexión, que podríamos llamar tecno-filosófico. 12

El texto de este apartado proviene casi totalmente del artículo titulado “Futuro de la comunicación y conocimiento”, del mismo autor (1998).

314


9.3.1. La infoesfera

En 1980 Alvin Toffler sintetizaba en las siguientes líneas su visión de los cambios que la telemática aportarían al finalizar el siglo, anunciando la “tercera ola” del desarrollo: “Al tornarse la información más importante que nunca, la nueva civilización reestructurará la educación, redefinirá la investigación científica y, sobre todo, reorganizará los medios de comunicación. Los medios de comunicación actuales, tanto impresos como electrónicos, son totalmente inadecuados para enfrentarse a la carga de comunicaciones y suministrar la variedad cultural necesaria para la supervivencia. En vez de estar culturalmente dominada por unos cuantos medios de comunicación de masas, la civilización de la tercera ola descansará sobre medios interactivos y desmasificados, introduciendo una imaginería sumamente diversa y a menudo altamente despersonalizada dentro y fuera de la corriente central de la sociedad.” (Toffler, 1980, p. 341). Lo mismo había percibido el sacerdote jesuita y paleontólogo francés Pierre Teilhard de Chardin: “El acontecimiento principal y específico de nuestra era biológica no es, inicialmente, otra cosa que la compresión, compenetración y aglutinación paroxismales de la masa humana sobre sí misma bajo el abrazo planetario. (...) En ningún momento de la historia -decidámosnos por fin a reconocerlose ha encontrado el hombre tan completamente vinculado (activa y pasivamente) como hoy, por el propio fondo de su ser, con el valor y el perfeccionamiento de todos los demás que le rodean. Y todo indica que este régimen de interdependencia no hará más que acentuarse en el curso de los siglos venideros.” (Teilhard,1967, p. 199). 9.3.2. Personalización

En esta nueva etapa, el modo de ser de las personas se ve afectado más directa e íntegramente que nunca. “Internet favorece el auge de la cultura de la autonomía. La clave en el proceso de individualización es la construcción de autonomía por parte de los actores sociales que, en el curso del proceso, se convierten en sujetos. 315


[...] Y si la tendencia cultural dominante en nuestra sociedad es la búsqueda de autonomía, y si esta búsqueda es alimentada por internet, entonces avanzamos hacia una sociedad de individuos asertivos y con libertad cultural al margen de las barreras impuestas por rígidas organizaciones sociales heredadas de la era industrial” dice Manuel Castells (BBVA, 2014, p.141) Después de la uniformización a la cual llevaba la era industrial, la nueva infoesfera entrega al hombre una visión más compleja de sí mismo y lo lleva a una mayor diferenciación: “No podemos transformar todos nuestros medios de comunicación y esperar continuar inalterados como personas. Una revolución en los medios de comunicación debe significar una revolución en la psiquis. Durante el período de la segunda ola, la gente se bañaba en un mar de imaginería producida en serie. Unos relativamente pocos y centralmente producidos periódicos, revistas, programas de radio y televisión y películas alimentaban lo que los críticos denominaban una “conciencia monolítica”. Se incitaba continuamente a los individuos a compararse con un número relativamente pequeño de modelos y a valorar sus estilos de vida en relación a unas pocas posibilidades. En consecuencia, la gama de estilos de personalidad socialmente aprobados era relativamente reducida. La desmasificación actual de los medios de comunicación presenta una deslumbrante diversidad de modelos y estilos de vida con los que compararse. Además, estos nuevos medios de comunicación no nos suministran trozos plenamente formados, sino quebrados fragmentos y destellos de imágenes. En vez de dársenos una selección de identidades coherentes entre las que elegir, se nos exige que ensamblemos nosotros una: un “yo” configurador o modular. Esto es mucho más difícil y explica por qué tantos millones de personas están buscando desesperadamente una identidad. Empeñados en ese esfuerzo, desarrollamos una sublimada conciencia de nuestra propia individualidad, de los rasgos que nos hacen únicos. Cambia, así, la imagen que de nosotros tenemos. Exigimos ser vistos y tratados como individuos.” (Toffler, 1980, p. 375).

316


Aquí, ciertamente, el pensamiento de Teilhard -aunque coincide en la implicancia de efectos psíquicos- supera ampliamente la dicotomía que plantea Toffler entre uniformización (en la segunda ola) e individualización (en la tercera). “Nos encontramos, por el juego de nuestro crecimiento, en la doble necesidad de profundizarnos nosotros mismos y simultáneamente de pasar, de alguna manera, a lo que nos rodea. Sucede, pues, sin duda, que estos dos gestos no son tan opuestos como parecen, sino que se encuentran ligados en la armonía de un solo movimiento profundo.” (Teilhard, 1973, p.69) La personalización a través de la unión (comunicación y don de sí mismo) es un tema recurrente en el pensamiento teilhardiano y apunta en la dirección misma -espiritual- de la evolución del universo: “Así reaparece, no solamente en el fondo, sino por encima de nosotros mismos, la ley de convergencia fundamental. La unión nos ha hecho hombres organizando, bajo el control de un espíritu pensante, los poderes confusos de la materia. Va a hacernos, además, «superhombres», haciéndonos elementos sometidos a un alma superior. La unión en el interior nos ha personalizado hasta aquí. Ahora es la unión en el exterior la que va a «supra-personalizarnos».” (Teilhard, 1973, p.70) Así, la aparición de las redes de comunicación y la importancia creciente de la información en la cultura y la economía no son meros fenómenos casuales sino -a juicio de Teilhard- el producto de una ley evolutiva: tarde o temprano, la humanidad había de llegar a una nueva era caracterizada por fuerzas tendientes a superar el proceso evolutivo de la “individuación”: “Hacia fines del siglo XIX, se ha podido plantear seriamente la cuestión de si la hominización no se aproximaba, por vía de pulverización y de desmigajamiento, a su fase final. En esta época (...) el aislamiento mutuo de las partículas humanas, exaltadas en sus tendencias egoístas por el primer establecimiento de una cultura prácticamente universal, se ha hallado como de justicia impelido a un máximo. (...) Ahora bien, precisamente en ese momento empezaron a aparecer en el horizonte, como nubes cargadas a la vez de tempestades y de promesas, las grandes fuerzas, todavía insospechadas, de la totalización.” (ibidem, pp. 103 y 104).

317


La humanidad se ha comprimido sobre sí misma por efecto del crecimiento demográfico, aumentándose del mismo modo su “temperatura psíquica”. Esto le ha llevado a buscar mecanismos que permitieran al mismo tiempo la armonización entre sus integrantes y una mayor libertad interior de los mismos. Se produce convergencia y se amplía el poder de la reflexión. El conocimiento crece y se intercambia cada vez más rápida y multitudinariamente: la esfera de la información, o -en la perspectiva de Teilhard- la esfera del conocimiento, rodea cada vez más perceptiblemente el planeta. 9.2.3. Noosfera

Esta situación fue descubierta por Teilhard de Chardin hace 50 años. Propuso así el concepto de “noosfera” (esfera del conocimiento, por semejanza con la biosfera y la estratosfera que envuelven la Tierra): “Las energías humanas elementales no actúan en desorden, a capricho de las leyes estadísticas (...) Tienden a componer sus radiaciones individuales en una pulsación única, es decir, a constituir un conjunto organizado. No podemos alcanzar ningún progreso decisivo en nuestras concepciones del mundo animado mientras que, permaneciendo en la escala celular, no sepamos emerger por encima de los seres vivos para ver la vida, por encima de los hombres para descubrir la humanidad: (...) la realidad física, poderosa, en la que se bañan y se influencian todos los pensamientos individuales hasta formar, por su multiplicidad ligada, un solo espíritu de la Tierra. Flotando por encima de la biosfera, cuyas capas fluyen gradualmente por él, el mundo del pensamiento, la noosfera, comienza a dejar irradiar su corona.” (1973, pp. 128-129) “La noosfera es una película casi imperceptible si se la compara con las magnitudes astrales. En realidad, esta delgada superficie es nada menos que la forma más progresiva bajo la que nos es dado comprender y contemplar la energía universal. En esta envoltura tenue pasa la esencia de las inmensidades que bordea: la nota superior alcanzada por la vibración de los mundos.” (ibidem, p.131) .

318


9.2.4. Cambios en la “psicosfera”

Toda la historia del hombre es historia de cambios. Sin embargo, el siglo XX se caracterizó por una aceleración enorme de los mismos, especialmente en el campo del conocimiento. “El hombre no ha cesado de profundizar el conocimiento que tiene de sí mismo y del universo, y esto en un ritmo que, desde hace diez mil años, sigue una espiral ascendente. Hubo un gran salto adelante con el invento de la escritura, pero la evolución siguió sin embargo desesperadamente lenta durante siglos. (...) Antes de 1500, Europa no publicaba más de mil obras por año, según las estimaciones más generosas. (...) En 1950, la cadencia se había acelerado tan brutalmente que la producción europea había llegado a la cifra de 120.000 obras por año.” (Toffler, 1971, p.42). La situación en 1950, sin embargo, es apenas comparable con la de hoy. Al avance en las comunicaciones y la investigación científica hubo que sumar el papel preponderante de la tecnología informática. “El computador hizo una entrada triunfal en el mundo hacia 1950. Su poder de análisis sin precedente y su capacidad para difundir un abanico de datos extremadamente variados en cantidades fabulosas y a una velocidad que desafía la imaginación han hecho de él la fuerza principal que preside a la última aceleración en el desarrollo de la ciencia. Gracias a él y a otros instrumentos cada vez más eficaces para explorar el universo invisible que nos rodea, nuestros conocimientos se multiplican a una velocidad que corta el aliento.” (ibidem, p. 43). Tal aceleración no puede sino perturbar al hombre y afectarlo psicológicamente. “En nuestra sociedad «saber es cambiar» -y la adquisición más y más rápida del saber, al alimentar el motor de la tecnología, conlleva la aceleración del cambio. (...) La cadencia cada vez más rápida del cambio es al mismo tiempo una fuerza psicológica. Aunque la psicología, hasta hoy, la haya casi totalmente ignorado, destruye nuestro equilibrio interior y modifica nuestra actitud ante la vida. La aceleración exterior se traduce por una aceleración interior. Para sobrevivir, para escapar de lo que hemos llamado el shock del

319


futuro, el individuo debe hacerse infinitamente más dúctil y más competente que nunca antes.” (ibidem, p. 44 y 46). Las comunicaciones y el vertiginoso desarrollo del conocimiento llevan a un mundo diferente del que hoy conocemos. “Se está formando una nueva civilización. Pero, ¿dónde encajamos nosotros en ella? Los cambios tecnológicos y las agitaciones sociales actuales, ¿no significan el fin de la amistad, el amor, el compromiso, la comunidad y la solicitud hacia los demás? Las maravillas electrónicas del mañana, ¿no harán las relaciones humanas más vacías y distantes de lo que son hoy?” (Toffler, 1980, p. 353). Estas son las preguntas con las cuales Toffler introduce sus reflexiones acerca de “la nueva psicosfera”. La era industrial tuvo su propia infosfera y, ligada a ella, su “psicosfera”. Pero, prueba que los cambios afectan a la psiquis, desde los años setenta se han creado y difundido miles de “terapias” para reintegrar la personalidad. El recuento que hace Toffler de esta tendencia está refrendado por la experiencia y los estudios de psicólogos y psiquiatras, algunos de los cuales -como Lola Hoffman, en Chile- tienen plena conciencia de que estos fenómenos están ligados a una nueva etapa evolutiva de la humanidad: “Teilhard de Chardin no alcanzó a ver con sus ojos la explosión de conciencia que se produce en estos momentos, acelerada vertiginosamente debido al progreso de la técnica en el terreno de las comunicaciones. Sin proponérselo, los científicos y técnicos lograron el milagro de la simultaneidad en el planeta. Una aldea global cuyos habitantes conocen, en el momento de producirse, lo que ocurre en todas partes. La conciencia se expande así a una velocidad impredecible. (...) Desde hace unos veinte a treinta años, dice Lola Hoffmann, el número de personas que quieren ser personas, es decir, tener una vida significativa y llena de sentido positivo, aumenta en progresión geométrica. Esto se manifiesta en una vida mejor, en todos los planos.” (Sierra, pp. 191-192). Teilhard, sin embargo, había percibido el auge de la investigación científica y preveía una aceleración en este campo, ligada -para él- a una nueva etapa de la evolución humana: 320


“La investigación, que ayer era una actividad de lujo, está en proceso de convertirse en una importante, de hecho en la principal, función de la humanidad. Como en el caso de todos los organismos que la precedieron, pero en una escala inmensa, la humanidad está en proceso de «cerebralizarse».” (Teilhard, 1959). “Cerebralizarse” es descrito por Teilhard como un proceso de desarrollo de la conciencia, de las facultades superiores. Es prepararse para dar un nuevo “gran salto” hacia delante en la evolución, donde el espíritu podrá vencer a la materia, formándose una comunidad espiritual de alcance universal. 9.2.5. Saber, poder y ser

Los expertos ya advierten acerca de la superabundancia de informaciones sin desarrollo del conocimiento, a punto de que podría causar un retroceso del mismo, por falta de una adecuada organización de los procesos de comunicación en reales intercambios. Éste es un nuevo desafío para el espíritu humano y la indicación de que estamos en una verdadera crisis de crecimiento. Crisis en que solamente la fe en el hombre y la fe en la energía vital que nos anima puede conducirnos adecuadamente para crear una nueva era, caracterizada por una mayor unión de las conciencias. Según Teilhard, saber más es el camino para ser más y en ello se juega el futuro: “El porvenir del mundo está vinculado a cierta unificación social humana, que depende a su vez, en último extremo, del pleno juego, en nuestros corazones, de ciertas atracciones hacia el ser-más, atracciones sin las cuales toda ciencia, toda técnica, se deshacen sobre sí mismas.” (1967, p.169). “Saber para ser”, ésta es la razón última de las comunicaciones y de la investigación. Pero no todos tienen conciencia de ello. Y en esto se diferencia, esencialmente, el pensamiento teilhardiano del pensamiento de Toffler y de otros estudiosos de los actuales cambios culturales, para quienes “saber es poder”: “A pesar de excepciones y desigualdades, contradicciones y confusiones, estamos presenciando uno de los cambios más importantes en la historia del poder. Porque ahora resulta indiscutible que el conocimiento, la fuente del 321


poder de más alta calidad entre todos ellos, está cobrando inusitada importancia con cada nanosegundo que pasa. Por lo tanto, el más importante de todos los cambios de poder no se produce de una persona, un partido, una institución o una nación a otra. Es el cambio oculto en las relaciones entre violencia, riqueza y conocimiento, a medida que las sociedades ganan aceleración camino de su colisión con el mañana.” (Toffler, 1990, p. 539). Aunque la era de la información, la “tercera ola”, ha de producir grandes cambios sociales en la medida en que el “poder” se estará trasladando hacia nuevos centros, la última palabra no puede ser reservada a algunos nuevos “dueños” de este poder sino que ha de distribuirse pacíficamente por toda la noosfera: “Viene el tiempo (y llegará) en que la masa se dará cuenta de que los verdaderos éxitos humanos son los que triunfan de los misterios de la materia y de la vida. Se aproxima el momento en que el hombre de la calle comprenderá que hay más poesía en un instrumento destinado a desintegrar los átomos que en un cañón. Sonará, entonces, para el hombre, una hora decisiva: aquella en que el espíritu del descubrimiento absorberá toda la fuerza viva contenida en el espíritu de la guerra. Fase capital de la historia en la que, al sumarse el poder transformado de las armadas y los ejércitos con este otro poder que la máquina habrá liberado, una marea irresistible de energías libres avanzará hacia los círculos más progresivos de la noosfera.” (Teilhard, 1973, p.147) “El mundo (...) está en vías de reunir en sí los elementos de un cuerpo superior y nuevo. Toda la cuestión (...) reside en que emerja pronto el alma que, con su aparición, vendrá a organizar, a aligerar, a vitalizar este cúmulo de materia estancada y confusa. Pero esta alma, si existe, no puede ser más que la “conspiración” de los individuos, asociándose para elevar un nuevo piso al edificio de la vida. Los recursos de que disponemos hoy, los poderes que hemos desencadenado, no podrán ser absorbidos por el sistema estrecho de los cuadros individuales o nacionales de que se han servido, hasta ahora, los arquitectos de la Tierra humana. (...) Hemos sido conducidos a (...) reunir piezas demasiado grandes para el uso que queríamos darles (…). La edad de las naciones ha pasado. Se trata ahora para nosotros, si no queremos perecer, de sacudir los antiguos prejuicios y de construir la Tierra.” (ibidem, p. 40).

322


Está claro que la propuesta de Teilhard no es de tipo político, aunque apunta vagamente a algún tipo de organización transnacional que eliminaría la necesidad de los recursos de fuerza (ejércitos). Su planteamiento es esencialmente ético. Ha de implantarse lo que llama una “moral de movimiento”, para la cual el supremo criterio de bondad reside en la contribución al desarrollo del espíritu en la Tierra, a diferencia de la antigua “moral de equilibrio”, que apunta a un equilibrio estático entre derechos y deberes, lo cual limita la energía humana en vez de dinamizarla (cfr. 1973, pp. 115-117). 9.2.6. Energía humana y esfera espiritual

Entendiendo las telecomunicaciones como extensiones de nuestros sentidos -como lo propuso McLuhan- y viendo como su red cubre nuestro globo terráqueo, es casi imposible no compararlas con nuestro sistema nervioso Pero se trata ahora de un super-sistema nervioso, que conecta el gran cuerpo de la Humanidad. No sólo observamos una confirmación de la idea de McLuhan, sino de la hipótesis más antigua y más profunda de Teilhard que, analizando el papel del Espíritu en el desarrollo de la humanidad, señaló la existencia de una Energía unificadora, presente en la naturaleza desde la creación (Alfa) y conducente -irresistiblementehacia una nueva realidad espiritual: “Es, evidentemente, muy difícil (y un poco vano) intentar adivinar lo que será la Tierra después de la duración de un período geológico. Pero un punto, al menos, parece estar fuera de duda por el análisis del hecho presente: es que, a menos que nos resolvamos a admitir que el Cosmos es algo intrínsecamente absurdo, el crecimiento del Espíritu debe ser tenido por irreversible. «El Espíritu, en su conjunto, no retrocede» jamás. Dicho de otra manera: «En un Universo de naturaleza evolutiva, la existencia del Espíritu excluye, por estructura, la posibilidad de una Muerte en la que desaparecieran totalmente (es decir, más exactamente, en la que no serían conservadas en lo más escogido) las conquistas del Espíritu». Tal es la garantía...” (1973, p. 43) Esta energía cósmica se transforma en el hombre y se manifiesta en él de una triple manera:

323


“a) La energía incorporada es aquella que la lenta evolución biológica de la Tierra ha acumulado y armonizado gradualmente en nuestro organismo de carne y nervios: la sorprendente «máquina natural» del cuerpo humano. b) La energía controlada es aquella a la que, a partir de sus miembros, el Hombre llega a dominar ingeniosamente a su alrededor con un poder físico, por medio de «máquinas artificiales». c) La energía espiritualizada, en fin, es aquella que, localizada en las zonas inmanentes de nuestra actividad libre, forma la materia de nuestras intelecciones, afecciones, voliciones... Todo sucede, en suma, como si cada individuo humano representara un núcleo cósmico de naturaleza especial, irradiando alrededor de sí ondas de organización y de alertamiento en el seno de la materia. Un núcleo semejante, tomado con su aureola de animación, es la unidad de la Energía Humana.” (1973, pp.125-126) Antes del surgimiento de la red, Toffler, a la vista de los cambios tecnológicos y las agitaciones sociales se preguntaba si estos hechos significaban el fin de la amistad, el amor, el compromiso, la comunidad y la solicitud hacia los demás (1980, p.354). Internet ha promovido claramente la interrelación y ha abierto la humanidad a una nueva era de socialización. En la concepción de Teilhard de Chardin, es el fruto del empuje de una fuerza de unión propia de la energía cósmica, que llega finalmente al nivel consciente. Esta fuerza, dice, no es otra que el amor, valor central del cristianismo, que hace de esta religión la guía más indicada para que la Humanidad penetre en la nueva era y pueda pasar, finalmente, al Punto Omega (final) de la evolución. “En la riqueza creciente de su formulación, el amor no solamente totaliza las disposiciones psicológicas del Mundo en un momento dado, sino que aclara y resume en él todos los esfuerzos del Pasado: las dos condiciones esperadas por las que podríamos reconocer que representa realmente la forma buscada por la Energía Humana... De donde, finalmente, la sugerencia siguiente: Por dos puntos críticos, la Energía Humana ha tomado ya la forma que le conocíamos en este momento: aparición, primero, de la Vida, de donde ha salido la Biosfera; aparición, después, del Pensamiento, terminando en la Noosfera. ¿No estaría en curso, desde el nacimiento cristiano del amor, una metamórfosis ulterior, la última: la toma de conciencia de un 'Omega' en el 324


corazón de la Noosfera, el paso de los círculos a su centro común: la aparición de la «Teosfera»?" (1973, p. 173) Llama nuestra atención -como una posible característica del fin del siglo XX- el hecho que científicos dedicados a la física y a la biología hayan llegado -sin ninguna pretensión filosófica- a concluir, igual que Teilhard, en la existencia de una energía de unión de carácter inmaterial. Biólogos y antropólogos han llegado a la conclusión que, en el caso del hombre, el comportamiento que consiste en compartir no es de tipo cultural sino que está biológicamente inscrito en la especie humana. A decir del biólogo Humberto Maturana, no solo tenemos una tendencia innata a recolectar todo lo que podamos, sino también una tendencia innata a compartir. Y la “mirada del otro” es determinante para “convencernos” a actuar de este modo (Maturana, 1990, p.80). Este autor coincide plenamente con Teilhard cuando escribe que la historia de los homínidos es por esencia una historia basada en el compartir. Y agrega que “el espacio social surge bajo la emoción de aceptación del otro, bajo el amor y cada vez que eso se acaba, se acaba la dinámica social” (Maturana, 1990, p.95). Pero la visión de Teilhard se extiende más allá de la biología, según el principio de que no existe nada que no haya sido preparado en etapas evolutivas anteriores. “En su forma más general, y desde el punto de vista de la Física, el amor es la cara interior, sentida, de la afinidad que une y atrae entre sí a los elementos del Mundo, centro a centro. (...) El amor es potencia de enlace inter-céntrico. Por consiguiente, está presente (al menos en estado rudimentario) en todos los centros naturales, vivos o pre-vivos, de que está formado el Mundo; representa también, entre esos centros, la forma más profunda, más directa, más creadora de interacción que pueda concebirse.” (1967, pp.73-74) Extrañamente, estas líneas también recuerdan reflexiones semejantes de un gran investigador de la física cuántica: David Bohm. “Ésa es mi propuesta: que la materia inanimada es una abstracción que obtenemos cuando abandonamos el potencial de la vida. Pero tal vez haya algo más que un potencial. Tal vez exista una especia de energía viva en toda la materia que se manifiesta en nosotros de ciertas maneras que no hace 325


en la piedra. Si así fuese, si existiese una especie de inteligencia generalizada a través de la naturaleza, resulta entonces que la proposición especulativa de que la materia inerte puede responder a nuestro pensamiento no es tan ilógica. Éste sería el dominio de lo paranormal. Cuando llegamos a la llamada experiencia mística podría decirse también que esta unicidad se lleva al grado n.” (Citado por R. Weber en K. Wilber & col., p.241) Así, varios científicos de hoy, que han reflexionado sobre la naturaleza de la materia o de la vida, no dudarían en confesar con Teilhard que “El amor es la más universal, la más formidable y la más misteriosa de las energías cósmicas” (La Energía humana, p.35). Hemos observado a lo largo de este libro como las nuevas redes y los nuevos medios de comunicación están transformando nuestro mundo. Surgen numerosas preguntas como también enfoques pesimistas, que se derivan de ciertos comportamientos aberrantes explicables en época de crisis. Pero, tomando una mayor perspectiva es importante reconocer también la confluencia de la reflexión de científicos y de místicos que, desde diversas disciplinas y, algunas veces sin contactos entre ellos, apuntan en el sentido de un crecimiento espiritual de la humanidad. El mismo Teilhard de Chardin reconoció ser tributario de filósofos e investigadores de principios del siglo XX como Bergson y el doctor Carrel (cfr. La Energía Humana, p.136). Pero la convergencia y las coincidencias se han vuelto a producir después de la muerte de Teilhard, tal como lo muestran los autores que hemos citado. El físico Fritjof Capra en un texto que resultó muy polémico en el campo de su especialidad (El Tao de la Física) emitió el planteamiento de la confluencia de la física y de la mística. Según él, si bien física y mística dedican su atención a elementos diferentes y usan herramientas y técnicas diferentes, no tendría nada de extraordinario que los mejores en ambos campos lleguen a conclusiones parecidas en torno a los principios que sustentan la realidad que observan: “La física cuántica es un modo no corriente de percepción mediante instrumentos muy sofisticados. Así que, por un lado, tenemos científicos que experimentan en la materia con ayuda de instrumentos muy sofisticados, y por otro místicos que experimentan en la conciencia con técnicas muy 326


sofisticadas de meditación. Ambos alcanzan niveles no ordinarios de percepción y en estos niveles no ordinarios parece que son muy semejantes los modelos y principios de organización que observan.” (Capra, citado por R. Weber en K. Wilber & Col., p. 268). El planteamiento de Teilhard sobre “el Interior de las cosas” explica con toda claridad esta convergencia y complementación de las diversas formas del conocimiento. No queda más, en consecuencia, que aceptar el “desafío del cambio” y consagrarse, en lo posible, a la más noble tarea propuesta a la Humanidad: la investigación y difusión del conocimiento.

327


Conclusión Las ciencias cognitivas nos muestran que existe una extraordinaria afinidad entre nuestro cerebro e internet: es el paradigma de red, neuronal en el cerebro, electrónico en la red mundial y de enlaces (hipervínculos) tanto en el cerebro como en la web. Este modelo de red significa una suerte de “revolución tolemaica” en la concepción de la comunicación: el hombre es siempre el sujeto del proceso, el actor, el autor de la adquisición de conocimientos. No hay “receptor” puro de contenidos. Especialmente en el caso del hipertexto, de los hipermedios, es “lectorautor”, co-constructor del discurso. Por lo tanto, ha de ponerse al centro del gráfico con que se representa el proceso de comunicación y no a los lados, no escindido en las funciones de emisor y de receptor, como lo hace el modelo clásico. El sujeto es quien organiza sus relaciones, su red de fuentes, en algunos casos en forma simétrica (dialogal) y en otros muchos en forma asimétrica (como con los medios de comunicación masiva). “El destino del electronauta es tolemaico. En efecto, con una especie de revolución hacia atrás, el viajero digital se encuentra viviendo en un mundo que gira a su alrededor sin que él se mueva. [...] Quien pasa de un banco de datos a un terminal interactivo, de una simulación a una enciclopedia multimedia, de una visión infográfica a una percepción virtual sufre, en cada cambio, una extraordinaria recolocación. [...] Se hace difícil, en esta situación, vivir la centralización como estabilidad. [...] Para moverse por este universo neotolemaico hay que dotarse de instrumentos cognitivos inéditos, que comportarán una nueva logística, más que una distinta lógica.” (Vidali, en Bettetini y Colombo, pp.272-273) A pesar de que las redes de telecomunicación y las redes de nodos o lexias de los hipertextos no lo muestran, el sujeto es el centro del nuevo paradigma, el centro de toda red, porque es el que las construye, el que les da forma, el que las explora, el que construye los discursos que fluyen por ellas y él que aprende con ellas. Los nuevos medios aportan recursos para comprender, aprender, almacenar y reclamar informaciones, o sea: acceder a conocimientos. Estamos frente a un amplio espectro de posibilidades, en continua evolución, que permite al usuario 328


conocimientos más profundos que los que tenía a su disposición en los medios tradicionales e incluso la experimentación -via simulación- de acciones complicadas y arriesgadas. (cfr. Bettetini y Colombo, pp.36-37). Al mismo tiempo, como lo ha mostrado la evolución de la tecnología y las decisiones de adopción, los usuarios han ido priorizando las relaciones sociales interpersonales, dando a la sociedad, poco a poco, una nueva estructura, capaz de sacudir la organización de ésta una vez que la mayoría accede a las redes. Ahí, el “sentir social” también se puede expresar mejor, derivando también en un nuevo conocimiento y, quizás, en un futuro aún incierto, en un nuevo “espítú de la Tierra”.

“Es hora de saber cómo diseñar, en una cultura que privilegie el diálogo como forma de encuentro, la búsqueda de consensos y acuerdos, pero sin separarla de la preocupación por una sociedad justa, memoriosa y sin exclusiones. El autor principal, el sujeto histórico de este proceso, es la gente y su cultura, no es una clase, una fracción, un grupo, una élite. No necesitamos un proyecto de unos pocos para unos pocos, o una minoría ilustrada o testimonial que se apropie de un sentimiento colectivo. Se trata de un acuerdo para vivir juntos, de un pacto social y cultural.” (Papa Francisco, EG239)

329


Bibliografía 10.1. Fuentes Anderson, N. (2006): “Tim Berners-Lee on Web 2.0: nobody even knows what it means”, en ArsTechnica, September 1. Arias Robles, F. (2014): “El mensaje ciberperiodístico en la actualidad internacional - El caso de la primavera árabe”, en TecCom Studies, V, 81-95, recuperado el 28/04/2014 de: http://www.teccomstudies.com/articulos/file/33-el-mensaje-ciberperiodistico-enla-actualidad-internacional-el-caso-de-la-primavera-arabe Arriaga, E. (2014): “El futuro y sus comunicaciones”, Slideshare, 18/03/2014 http://www.slideshare.net/earriagada/el-futuro-y-sus-comunicaciones-pdf BBVA (2014): C@mbio. Cómo internet está cambiando nuestras vidas, Madrid, OpenMind BBVA. Descargable de https://www.bbvaopenmind.com/libro/cambio19-ensayos-fundamentales-sobre-como-internet-esta-cambiando-nuestras-vidas/ Bettetini, G. & Colombo, F. (1995): Las nuevas tecnologías de la comunicación, Barcelona, Paidos. Blenford, A. y Jeavans, Ch. (2014): “Después de Snowden, ¿cuán vulnerable es internet?”, BBC Mundo, 28/01/2014; descargado ese día de http://www.bbc.co.uk/mundo/noticias/2014/01/140127_tecnologia_snowden_inter net_espionaje_il_vj.shtml Bogost, I., Ferrari, S. & Schweizer, B. (2010) : Newsgames: Journalism at Play, Cambridge (Ma), The MIT Press.

330


Cardozo, N. & alt. (2013) : Who Has Your Back? 2013, Electronic Frontier Foundation, descargable de https://www.eff.org/files/who-has-your-back-2013report-20130513.pdf Carr, N. (2010): The Shallows: What the Internet is Doing to Our Brains, New York, W.W.Norton & Co. (Las aguas poco profundas: Lo que Internet está haciendo a nuestros cerebros) Carr, N. (2014): “The Limits of Social Engineering”, MIT Technology Review, 16/04/2014. Descargado en esa fecha de http://www.technologyreview.com/review/526561/the-limits-of-socialengineering/ Castells, M. (2001): La Galaxia Internet: reflexiones sobre Internet, empresa y sociedad, Barcelona, Plaza & Janés. Castells, M. (2008): “Comunicación, poder y contrapoder en la sociedad red (II). Los nuevos espacios de la comunicación”, Telos, n°75, abril-junio 2008, descargado el 14/05/2014 de http://telos.fundaciontelefonica.com/telos/articuloautorinvitado.asp@idarticulo=1 &rev=75.htm Castells, M. (2009): Comunicación y poder, Madrid, Alianza. Castells, M. (2012): Redes de indignación y esperanza: Los movimientos sociales en la era de Internet, Madrid, Alianza. Castells, M. (2014): El impacto de internet en la sociedad, en BBVA, “C@mbio. Cómo internet está cambiando nuestras vidas”, Madrid, OpenMind BBVA Castro, A. (200?): “El derecho de autor ante las TIC en la economía del conocimiento”, Informática Jurídica, descargado el 2-06-2009 de http://www.informaticajuridica.com/trabajos/Pagina_especifica_sobre_derechos_d e_autor_DA_ante_las_TIC.asp

331


Centro Criptológico Nacional (2014): Esquema nacional de seguridad gestión y uso de dispositivos móviles, Madrid, Editor y Centro Criptológico Nacional, descargado el 10/06/2014 de https://www.ccn-cert.cni.es/index.php? option=com_docman&task=cat_view&gid=145&Itemid=145&lang=es Chapman, Cameron (2009): The History of the Internet in a Nutshell, descargado el 14/03/2014 de http://sixrevisions.com/resources/the-history-of-the-internet-in-anutshell/ Christensen, C., Horn, M. & Johnson, C.W. (2009): Disrupting Class: How Disruptive Innovation Will Change the Way the World Learns, McGraw-Hill, Columbus (OH). Presentación descargable de https://net.educause.edu/ir/library/pdf/ecr0903.pdf Claffy, K.,Hyun, Y.,Keys, K.,Fomenkov, M.,Krioukov, D. (2009): Internet Mapping: from Art to Science, IEEE DHS CATCH Conference. Contreras, S.O. (2014): “El yo como espectáculo”, Etcétera, 05/03/2014, descargado ese día de http://www.etcetera.com.mx/articulo/el_yo_como_espectaculo/24368/ Coviello, L. & alt. (2014): “Detecting Emotional Contagion in Massive Social Networks”, PLOS One, vol.9, n.3, descargable de http://fowler.ucsd.edu/detecting_emotional_contagion_in_massive_social_network s.pdf Cresci, Elena : “25 things you may have forgotten about the internet”, The Guardian, 13/03/2014, descargado ese día de http://www.theguardian.com/technology/guardianwitness-blog/2014/mar/13/25things-you-may-have-forgotten-about-the-internet?sf2151026=1 Delport, D. (2014): “Big data must become 'people data'”, The Guardian, 18/03/2014, descargado en esa fecha de http://www.theguardian.com/medianetwork/media-network-blog/2014/mar/18/big-data-must-become-people-data

332


Doctor, K. (2014): “The newsonomics of newspapers’ slipping digital performance”, Nieman Lab, 24/04/2014, descargado el 28/04/2014 de http://www.niemanlab.org/2014/04/the-newsonomics-of-newspapers-mediocremiddle/ Dürsteler, J.C. (2001): “La Telaraña Semántica”, Inf@vis, mensaje 26, descargado el 22/01/2001 de http://www.infovis.net/printMag.php?num=26&lang=1 Ertzscheid, O. (2009): Scanne moins fort, y'a le petit qui dort. De Google Books Search à Google Books Settlement, descargado en sept. 2009 de http://affordance.typepad.com/mon_weblog/2009/09/scanne-moins-fort.html Eudes, Y. (1982): La conquête des esprits, París, Maspero. García, B.C., López de Ayala López, MC., García Jiménez, A. (2014): “Los riesgos de los adolescentes en Internet: los menores como actores y víctimas de los peligros de Internet”, Revista Latina de Comunicación Social, 69, pp. 462 a 485. Consultado el 16/07/2014 en http://www.revistalatinacs.org/069/paper/1020_UR/23es.html García, Ma.C., del Hoyo, M. y Fernández, C. (2014): “Jóvenes comprometidos en la Red: el papel de las redes sociales en la participación social activa”, Comunicar n°43, descargado el 3/06/2014 de http://www.revistacomunicar.com/index.php? contenido=preimpreso&doi=10.3916/C43-2014-03 Garcia-Herranz M., Moro E., Cebrian, M., Christakis, NA., Fowler JH. (2014): “Using Friends as Sensors to Detect Global-Scale Contagious Outbreaks”, PLoS ONE 9(4): e92413. Descargable de http://hdl.handle.net/10016/18825 Gibbs, M. (2014): “The Mysterious Force that Holds the Corporate Universe Together”, Neuron, descargado el 24/03/2014 de http://info.pneuron.com/The-Blog-for-Intelligently-Connecting-the-Cloud-theBusiness-and-Big-Data/bid/333601/Dark-Data-The-Mysterious-Force-that-Holdsthe-Corporate-Universe-Together

333


Gimeno, M. & col. (2014): Informe anual sobre el desarrollo de la sociedad de la información en España, Madrid, Fundación Orange, descargado el 15/07/2014 de http://www.proyectosfundacionorange.es/docs/eE2014/Informe_eE2014.pdf Godeluck, S. (Paris): La géopolitique d'Internet, Paris, Ed. La Découverte. Gruber, J. (2014): “Rethinking What We Mean by ‘Mobile Web’”, Daringfireball.net, 8/04/2014, descargado ese día de http://daringfireball.net/2014/04/rethinking_what_we_mean_by_mobile_web Gumber, Vishal : “How Are Mobile Apps Changing the Way You Shop?”, iPhoneLife, /03/2014, http://www.iphonelife.com/blog/31556/how-are-mobileapps-changing-way-you-shop H'obbes' Zakon, R. (2004): Hobbes' Internet Timeline, descargado el 14/03/2014 de http://www.zakon.org/robert/internet/timeline/ Hart, J. (2013): 7th Annual Learning Tools Survey, Centre for Learning & Performance Technologies, descargado el 18/06/2014 de http://www.slideshare.net/janehart/top-100-tools-for-learning-2013 Hodgson, D. (2014): “The Internet of Things — Total Transparency or Total Control?”, blog Computer Associated, descargado el 28/04/2014 de http://blogs.ca.com/mainframe-voice/2014/04/23/the-internet-of-things-totaltransparency-or-total-control/ Honan, M. (2014): “Are Touchscreens Melting Your Kid’s Brain?”, Wired, 15/04/2014, descargado ese día de http://www.wired.com/2014/04/children-andtouch-screens Internet Society (2014): Global Internet Report 2014, Ginebra (Suiza), Internet Society, descargado el 10/06/2014 de http://www.internetsociety.org/sites/default/files/Global_Internet_Report_2014_0. pdf

334


IPG Media Lab (2014): Messaging Apps: The New Face of Social Media and What It Means For Brands, descargado de www.ipglab.com el 30/04/2014. Irigaray, F.,& alt. (2009): Periodismo Digital en un paradigma de transición, descargado el 12/05/2014 de http://www.fpdrosario.com.ar Irwin, N. (2014): “Netflix vs. Amazon, and the New Economics of Television”, The New York Times, descargado el 28/04/2014 de http://www.nytimes.com/2014/04/27/upshot/netflix-vs-amazon-and-the-neweconomics-of-television.html? Lampert, M. & Blanksma Ç., A. (2014): The disruptive mindset of millenials around the world, Flash Report 4, Amsterdam, Motivaction International B.V., descargado el 2/06/2014 de http://www.motivaction.nl/glocalities Lee, R. (2014): “Privacy, big data and analytics: A perfect storm”, IBM Big Data & Analytics Hub, 6/06/2014, descargado el 18/06/2014 de http://www.ibmbigdatahub.com/blog/privacy-big-data-and-analytics-perfect-storm Levy, K. (2014): “Infants Are Unable To Play With Building Blocks Because They're Too Addicted To iPads”, Business Insider, 16/04/2014, descargado ese día de http://www.businessinsider.com/infants-are-unable-to-use-building-blocksbecause-theyre-too-addicted-to-ipads-2014-4 Lessig, Lawrence(2009): El código 2.0, Madrid, Traficantes de Sueño, Versión PDF descargada el 29/06/2009 de http://traficantes.net Lewin, R. (1994): La complexité, París, Intereditions. Litan, Avivah (2013): The Email Trust Index, descargado el 9/04/2014 de http://info.agari.com/rs/agari/images/140212_TrustIndexQ4_v5.pdf Liu, Y., Kliman-Silverz, Ch. y MisloveA. (2014): The Tweets They are aChangin’: Evolution of Twitter Users and Behavior, AAAS, descargable de http://www.ccs.neu.edu/home/amislove/publications/Profiles-ICWSM.pdf 335


Luhman, N.: (1990) Sociedad y sistema: la ambición de la teoría, Barcelona, Paidos. Maturana, H. (1990): Emociones y lenguaje en la educación y la política, Santiago de Chile, Hachette. Maturana, H. & Varela, F. (1984): El árbol del conocimiento, Santiago de Chile, OEA. Meeker, M. (2014): Internet Trends 2014, KPCB, descargado el 29/05/2014 de http://www.kpcb.com/internet-trends? utm_content=buffer14592&utm_medium=social&utm_source=twitter.com&utm_c ampaign=buffer Moulier-Boutang, Y. (2007): Le capitalisme cognitif, la nouvelle grande transformation, Paris, Editions Amsterdam. Narodowski, M. y Scialabba, A. (2012): ¿Cómo serán? El futuro de las escuelas y de las nuevas tecnologías, Prometeo. Newbom, A.: “Is News Dead?”, Social Media Today, 25/04/2014, descargado ese día de http://socialmediatoday.com/andy-newbom/2376266/news-dead-or-has-itmerely-morphed-socially-distributed-form Newman, R. (2014): “Are Magazine Apps Dead? A State of the Art Roundtable”, Newmanology, 15/04/2014, descargado en 22/04/2014 de http://www.robertnewman.com/are-magazine-apps-dead-a-state-of-the-artroundtable/ Papert, S. (1994): L'enfant et la machine à connaître, Paris, Dunod. Pascual, B. (2014): “Internet profunda: pederastia, coca y asesinos a sueldo”, El Mundo.es, 6/04/2014, descargado ese día de http://estaticos.elmundo.es/assets/desktop/master/img/flechas/flecha_firma.png? 1382986579 336


Penrose, R. (1999): La nueva mente del emperador, Barcelona, Mondadori. Rainie, L. & Wellman, B. (2012): Networked: The New Social Operating System, MIT Press, Cambridge (MA). Romano, E. (2000): La cultura digital: navegantes de Internet, personalidades interactivas y agrupamientos virtuales, Lugar Editorial (Google Books). Satell, G. (2014): “Why The Digital Revolution Is Really Just Getting Started”, Forbes, 4/05/2014. Descargado ese día de http://www.forbes.com/sites/gregsatell/2014/04/05/why-the-digital-revolution-isreally-just-getting-started/ Schwarz, E. (2010): Kids, Parents & Technology: A Guide for Young Families, Lulu.com. Schiller, D. (2014): “Internet y los negocios”, en BBVA: “C@ambio. Cómo internet está cambiando nuestras vidas”, Madrid, OpenMind BBVA, pp.258-285. Sey, A. & Castells, M. (2004). From Media Politics to Networked Politics: The Internet and the Political Process. En Castells, M. (ed.), “The network society: A cross-cultural perspective”, Cheltenham, Reino Unido; Northampton, MA: Edward Elgar Pub. Sierra, M. (1988): Sueños. Un camino al despertar, Santiago de Chile, Ed. Puerta Abierta. Smith, A. (2013): Civic Engagement in the Digital Age, Pew Research Center Internet, consultado el 3/06/2014 en http://www.pewinternet.org/2013/04/25/civicengagement-in-the-digital-age/ Smith, C. (2014): “Artificial Intelligence is the Next Frontier For Social Networks”, Business Insider, descargable de http://www.businessinsider.com/artificial-intelligence-is-the-next-frontier-forsocial-networks-2014-4 337


Solis, B. (2014): “Digital Darwinism: How Disruptive Technology Is Changing Business for Good”, Wired 18/04/2014, descargado ese día de http://archive.wired.com/insights/2014/04/digital-darwinism-disruptivetechnology-changing-business-good/ Sorkin, A.R. (2014): “El futuro del dinero, la revolución que cambiará los sistemas de pago”, El Mercurio, 12/04/2014. Srivastava, T. (2014): “How analytics help organizations becoming customer centric”, Analytics Vidhya, 23/03/2014, descargado en esa fecha de http://www.analyticsvidhya.com/blog/2014/03/analytics-helps-organizationcustomer-centric/ Stelzner, M. (2014): 2014 Social Media Marketing Industry Report, Social Media Examiner, descargado el 28/05/2014 de http://www.socialmediaexaminer.com/social-media-marketing-industry-report2014/ Suárez, E. (2014): “El futuro de los periódicos: una conversación con Ken Doctor”, Nohacefaltapapel.com, 12/04/2014, descargado el 2/05/2014 de http://nohacefaltapapel.com/2014/04/12/el-futuro-de-los-periodicos-unaconversacion-con-ken-doctor/ Teilhard de Chardin, P. (1959): L'Avenir de l'homme, Paris, Points. • 1967: La activación de la energía, Madrid, Taurus. (original de 1963) • 1973: La energía humana, Madrid, Taurus, 2a Ed. (original de 1962) • 1979: El grupo zoológico humano, Madrid, Taurus, 5a. Ed. (curso dictado en 1949) TheWitspottER (2013): 10 Trends for Social TV in 2013, MIPTV-MIPCOM, consultado el 3/06/2014 en http://goo.gl/3l5a1f Tierney, J. (2014): “Customer Data Privacy has Become an Everyman Problem”, Loyalty36org, 14/03/2014, descargado ese día de

338


http://loyalty36org/resources/article/customer-data-privacy-has-become-aneveryman-problem Tierney, J. (2014): “Customer Data Privacy has Become an Everyman Problem”, Loyalty36org, 14/03/2014, descargado ese día de http://loyalty36.org/resources/article/customer-data-privacy-has-become-aneveryman-problem Toffler, A. (1980): La Tercera Ola, Barcelona, Plaza & Janés. • 1990: El cambio del poder, Barcelona, Plaza & Janés. Tuitele (2013): Un año de televisión social en España (septiembre 2012agosto 2013), Tuitele.tv, consultado el 3/06/2014 en http://www.slideshare.net/tuiteletv/tuitele-1-aotvsocialenesp Turner, V. : “How the Web is powering the revolution underway for personal finance”, The Next Web, 13/03/2014, descargable de http://thenextweb.com/dd/2014/03/13/web-powering-revolution-underwaypersonal-finance/ Universidad de Navarra (2014): Reuters Institute Digital News Report 2014: España, descargado el 18/06/2014 de http://www.unav.edu/documents/3786985/0/Reuters-Institute-Digital-NewsReport-2014-Espana.pdf Von Wodtke, M. (1993): Mind over Media, New York, McGraw-Hill. Wadhwa, V. (2014): “The Rise of Big Data Brings Tremendous Possibilities and Frightening Perils”, The Washington Post, 18/04/2014, descargado ese día de http://www.washingtonpost.com/blogs/innovations/wp/2014/04/18/the-rise-of-bigdata-brings-tremendous-possibilities-and-frightening-perils/ Wallace, d. (2014): “A Brief History of the Domain Name”, Infographic Journal, 24/03/2014, consultable en http://infographicjournal.com/a-brief-history-of-thedomain-name/ 339


Wilber, K. & col. (1987): El paradigma holográfico, Barcelona , Kairós. Williams, B. A. & Delli Carpini, M. (2004): “Monica and Bill and the time and everywhere: The collapse of gatekeeping and agenda setting in the new media environment”, American Behavioral Scientist, No. 47, vol. 9, p. 1208-1230. Citado por M.Castells (2008).

2. Publicaciones atingentes del mismo autor 2.1. Libros

2013: La revolución de la “fonofotografía”, Colección Mundo Digital, Revista Mediterránea de Comunicación, Universidad de Alicante. http://bit.ly/1fWsiCh 2012: Comunicación y conocimiento: Desafíos de la era digital, Colección Mundo Digital, Revista Mediterránea de Comunicación, Universidad de Alicante. http://bit.ly/1d41vkb 2002: Explotar la Información Noticiosa - Data Mining aplicado a la Documentació Periodística, Ed. Depto de Biblioteconomía y Documentación, Universidad Complutense de Madrid, 266p. http://issuu.com/raymondcolle/docs/librodmdp 2002: Teoría Cognitiva Sistémica de la Comunicación, Ed. San Pablo, Santiago de Chile, 2002, 392p., http://issuu.com/raymondcolle/docs/librotcsc 2001: Para Informar en la WWW: Principios y fundamentos de construcción de sitios web, Ed. CEM, Universidad Diego Portales, Santiago de Chile, 362p. 1992: Documentación periodística: Principios y aplicaciones, Ed. Pontificia Universidad Católica, Santiago de Chile, 181p. 1989: Tecnologías de la Información, Escuela de Periodismo Pontificia Universidad Católica, Santiago de Chile, 190p. 2.2. Artículos y ponencias

2014a: Morfología de los principales diarios digitales iberoamericanos, en Colle, R. & alt.: “Estudios sobre la prensa digital iberoamericana”, Colección Mundo Digital, Revista Mediterránea de Comunicación, Universidad de Alicante.

340


https://sites.google.com/site/librosmediterranea/home/5-estudios-sobre-la-prensadigital-iberoamericana 2014b: Obtención de una visión particular de las comunicaciones en Iberoamérica a través de la prensa digital, en Colle, R. & alt.: “Estudios sobre la prensa digital iberoamericana”, Colección Mundo Digital, Revista Mediterránea de Comunicación, Universidad de Alicante. https://sites.google.com/site/librosmediterranea/home/5-estudios-sobre-la-prensadigital-iberoamericana 2013: “Prensa y Big Data: El desafío de la acumulación y análisis de datos”, Revista Mediterránea de Comunicación, Vol. 4, n° 2. http://mediterraneacomunicacion.org/index.php?journal=Mediterranea&page=article&op=view&path %5B%5D=65 2012: “Odisea digital 2001-2011: Cómo ha cambiado el entorno digital en los últimos años”, Communication Papers, n° 1. http://bit.ly/Rp1noC 2009: “Construir un “hiperinformativo” con valor cognitivo”, Actas del I Congreso Internacional Latina de Comunicación Social, Universidad de La Laguna (Tenerife). 2004: “¿Adónde nos llevan las NTIC?”, Razón y Palabra, febrero-marzo 2004. 2003a: “Internet en peligro: La traición de los poderosos”, Razón y Palabra, diciembre 2003. 2003b: “Teleinformática y hegemonía cultural”, Revista Latina de Comunicación Social, nº54, La Laguna (Tenerife), http://www.revistalatinacs.org/20035413colle.htm 2003c: “5.000 noticias de tecnologías digitales de comunicación”, Razón y Palabra, dic.2002-enero 2003. 2003d (en colaboración con Daniel Colle): “Internet y la E-ducación Superior en la Era del Conocimiento”, Actas IV Bienal Iberoamericana de Comunicacion. 2002a: “Internet: ¿un medio para capturar rehenes?”, Revista Latina de Comunicación Social, nº47, La Laguna (Tenerife). http://www.revistalatinacs.org/2002/latina46enero/4606colle.htm 2002b: “Del 11-S a Big Brother”, Temas de Tecnologías Digitales de Comunicación (TDC), (Revista online desaparecida). 2002c: “El comercio electrónico y sus inicios”, Temas de Tecnologías Digitales de Comunicación (TDC).

341


2002d: Nuevas tecnologías - Nueva docencia, Centro de Estudios Mediales, Universidad Diego Portales, http://issuu.com/raymondcolle/docs/ntmetod2 2001a: “El hipertexto: orden o desorden 'a la carta'”, en Cuadernos de Información PUC, n°14. 2001b: “Agentes Autónomos o “softbots”, Temas de Tecnologías Digitales de Comunicación (TDC). 2000a: “Internet: un cuerpo enfermo y un campo de batalla”, Revista Latina de Comunicación Social, nº30, La Laguna (Tenerife). http://www.revistalatinacs.org/aa2000qjn/91colle.htm 2000b: “Principios de diseño para la WWW”, Revista Latina de Comunicación Social, nº29, http://www.revistalatinacs.org/aa2000rmy/110colle.html 2000c: “Las comunidades digitales”, Temas de Tecnologías Digitales de Comunicación (TDC). 1998: “Futuro de la comunicación y conocimiento”, Revista Latina de Comunicación Social, nº5. http://www.revistalatinacs.org/a/93colle.htm; publicado con anterioridad en la revista de filosofía Logos, de México (1997, pp. 77-97) 1996: “Comunicación eficiente en la WWW: Guía para la hipercomunicación”, Cuadernos de Información PUC, n°11. http://216.72.168.150/prontus_fcom/site/artic/20050509/pags/20050509184109.ht ml" 1995: “Nuevas tecnologías: ¿Los medios en la frontera del caos?”, Cuadernos de Información PUC, n°10. http://216.72.168.150/prontus_fcom/site/artic/20050517/pags/20050517184208.ht ml 1994: “El archivo inteligente”, en Cuadernos de Información PUC, n°9. http://216.72.168.150/prontus_fcom/site/artic/20050524/pags/20050524162732.ht ml

3. Fuentes de noticias y datos citados ABC: http://www.abc.es/ BBC Mundo: http://www.bbc.co.uk/mundo/ Business Insider: http://www.businessinsider.com/ CA Technologies Blog: http://blogs.ca.com// 342


Capterra: http://www.capterra.com/news Clases de Periodismo: http://www.clasesdeperiodismo.com/ Cooperativa: http://www.cooperativa.cl/ Diario TI: http://diarioti.com/ Diario el Dia: http://diarioeldia.cl/ eCampus News: http://www.ecampusnews.com/ Educaci贸n2: http://educacion2.com/ eLearning Infographics: http://elearninginfographics.com/ eLearning Industry: http://elearningindustry.com/ El Confidencial: http://www.elconfidencial.com/ El Mercurio: http://diario.elmercurio.com/ El Mundo: http://www.elmundo.es/ El Pa铆s: http://elpais.com/ FayerWayer: http://www.fayerwayer.com/ Gigaom: http://gigaom.com/ IBSchool: http://www.ibo.org/es/ Jarche, Harold: http://www.jarche.com/ La Naci贸n: http://www.lanacion.cl/ Media-tics: http://www.media-tics.com/ Mouse: revista desaparecida de La Tercera, http://www.latercera.com/ Net-learning: http://www.net-learning.com.ar/ Nieman Journalism Lab: NiemanLab Nohacefaltapapel: http://nohacefaltapapel.com/ Noticias.com: http://www.noticias.com/ Noticiasdot: http://www.noticiasdot.com/ PC Actual: http://www.pcactual.com/ PC Magazine: http://www.pcmag.com/ PlosOne: http://www.plosone.org/ Politico: http://www.politico.com/ Poynter: http://www.poynter.org/ Puranoticia: http://www.puranoticia.cl/front/pagina/inicio.php Revista eLearning: http://issuu.com/josetorresvargas/docs/revista_jos__torres_elearning_3 Sinc: http://www.agenciasinc.es/ SocialMedia Today: http://www.socialmediatoday.com/ 343


Stilo: http://stilo.es/ TechCrunch: http://techcrunch.com/ Tecnoxplora: http://www.tecnoxplora.com/ The Guardian: http://www.theguardian.com/uk TICbeat: http://www.ticbeat.com/ Train Easy: http://www.traineasy.com/ Wired: http://www.wired.com/ Xataka: http://www.xataka.com/ ZD Net: http://www.zdnet.fr/

344


Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.