Blogia
inmigrantesvirtuales

Interfaz gráfica y simulación

Interfaz gráfica y simulación

En el texto que publicamos a continuación pueden ampliar los conceptos de interfaz gráfica y simulación.

La seducción de las superficies: la interfaz gráfica y sus recursos 

Silvana Comba y Edgardo Toledo

Al interactuar con sus computadoras en lenguaje natural, los usuarios se guían  por la intuición, la asociación, la curiosidad y la experimentación para ir avanzando en la ejecución de las distintas actividades. La interface gráfica es lo que hace posible la comunicación en lenguaje natural. “Yo agradezco que exista el entorno gráfico porque antes la computadora era sólo para entendidos…”, nos decía un videasta que actualmente hace ediciones digitales (no lineales). Mientras que un programador que había trabajado con sistemas operativos lógicos afirmaba “los programas bajo Windows son mucho más intuitivos, es decir, que uno viendo el entorno, sólo por sentido común, toma decisiones de cómo moverse.”

 

Un concepto asociado al de interfaz gráfica que nos permite comprender cómo funciona este tipo de conversación es el de “contexto común”, entendido como un espacio habitado conjuntamente por el hombre y la máquina donde el significado se va construyendo a través de la colaboración y las sucesivas aproximaciones de los participantes.

 

La interface gráfica explícitamente simula parte de lo que constituye ese contexto común de interacción a través de la apariencia y el comportamiento de objetos en la pantalla. En este sentido, una interface no es simplemente el medio a través del cual una persona y una computadora se representan uno al otro; sino un contexto compartido para la acción en el cual ambos son agentes (entendemos la noción de agente como el que inicia la acción).

 

Los diseñadores de interface han elaborado varias metáforas para ofrecer a los usuarios un esquema conceptual que los resguarde de malos entendidos, desplegando objetos y ambientes familiares que actúan como referentes en el contexto común. Las metáforas actúan, de este modo, como mediadoras cognitivas ayudando a los usuarios a construir un tipo de saber en el que se sienten muy cómodos, “libres” porque su uso siempre implica una relación flexible, en este caso, con los programas (con el software). Por eso, aún las “buenas metáforas” no siempre funcionan del modo previsto por el autor. De ahí la constante referencia que hacen  los usuarios a esos procesos de construcción y reconstrucción de las operaciones mediante las cuales intentan realizar una determinada tarea, el avanzar mediante ensayo y error, el trabajar en el plano del “como si” que propone esta aproximación metafórica. Prefieren deambular por la pantalla antes que recurrir a las propuestas procidementales que proponen los programas o las Ayudas. Un antropólogo nos revelaba “a mí las Ayudas no me ayudan ni me aclaran… hay todo un palabrerío que uno no maneja. No recurro mucho. Es como que dan pasos por obviados en tanto suponen que vos los manejás…prefiero ir probando…” La metáfora tiene un poder generador enorme, nos insta a ir siempre más allá y, en el proceso, a ampliar los horizontes. Nelson Goodman lo sintetiza al decir “Lejos de ser una mera cuestión de ornamento, la metáfora participa cabalmente en el avance del conocimiento…”[1]

 

El concepto de interfaz gráfica está también asociado a la idea de manipulación de objetos computacionales. Al hablar de objetos computacionales hacemos referencia tanto a los íconos e imágenes de síntesis que pueblan la pantalla de la computadora como a los perífericos (mouse y teclado). El modo de aprender a través del ensayo-error, intuitivamente, quizá hace que gran parte de los usuarios que se iniciaron en el entorno Windows (que adoptó la interface gráfica iniciada por las Mac) experimentaran con las superficies valiéndose del mouse y de los íconos que son los elementos más visibles para interactuar con la máquina.

 

Este usuario masivo difiere bastante de los primeros usuarios de computadoras personales que eran más “expertos”, interactuaban con la máquina no en lenguaje natural, como comenzó a suceder a partir de la incorporación de la interfaz gráfica, sino en lenguaje lógico. Un dato bastante revelador es que en 1981 se pone a la venta, en Estados Unidos, la primera computadora con interfaz gráfica y mouse, la Xerox Star 8010, a un costo relativamente bajo, pero casi nadie la compra. Esto nos da la pauta de que la manipulación de objetos computacionales en un primer momento fue resistida por ese usuario experto, para luego ser aceptada progresivamente por un nuevo tipo de usuario que, viendo la posibilidad de usar la computadora de un modo relativamente fácil, entró en una relación distinta con la máquina a partir de la interfaz gráfica.

 

Un concepto central, estrictamente relacionado con la interfaz gráfica, es el de manipulación directa. “Las interfaces de manipulación directa emplean el concepto psicológico de cómo la gente se relaciona con los objetos en el mundo real con el supuesto de que las personas pueden trasladar ese conocimiento a la manipulación de objetos virtuales que representan procesos y entidades virtuales.” [2]  Donald Norman, fundador del Instituto de Psicología Cognitiva de la Universidad de California, fue uno de los investigadores que más ha trabajado en el área que se conoce como “human-computer interaction” y realizó aportes significativos en cuanto a la manipulación directa de objetos computacionales. La perspectiva de Norman está orientada hacia tareas. En su libro The Psychology of Everyday Things (1988), Norman pone énfasis en que el diseño de una interfaz efectiva debe comenzar con un análisis de lo que la persona está tratando de hacer.

 

Esta perspectiva parece bastante interesante si tenemos en cuenta cómo cambia el concepto de computadora con la introducción de la interfaz gráfica y, en consecuencia, se amplía el público al que va dirigida. Antes de la interfaz gráfica, la computadora cumplía funciones específicas (era usada para el cálculo, el almacenamiento de datos, etc.) para usuarios expertos y actividades del comercio y la industria en sus diversas ramas. A partir de 1984, con la entrada al mercado de las Apple Macintosh, la computadora pasa a ser una máquina multipropósito para usuarios masivos en el ámbito del hogar. Usuarios que comienzan a interactuar con la computadora aprendiendo a medida que van viendo la posibilidad de realizar tareas para las cuales anteriormente recurrían a otros artefactos (principalmente la máquina de escribir y posteriormente, en el terreno de las comunicaciones, el fax y el teléfono).

 

Asociada a la manipulación directa está también la noción de “compromiso directo”. Para Brenda Laurel, son las dos caras de una misma moneda; la primera se centra en las cualidades de la acción mientras que la segunda, en la respuesta subjetiva del usuario. La cuestión básica es qué se necesita para producir la sensación de actuar dentro del mundo simulado de la pantalla. Aunque la respuesta no es sencilla, algunos investigadores acuerdan en que es imprescindible la continuidad en la simulación de los procesos, la acción “física” (mover íconos, arrastrarlos, etc.) y la instantaneidad aparente de las respuestas.[3] Esta última depende tanto de la velocidad de procesamiento como de la eliminación de operaciones intermedias en las que el usuario siente que está perdiendo el tiempo, sin avanzar en la acción. 

 

Simulación

La simulación aparece como un recurso fundamental que está en la base de la interfaz gráfica propuesta por los nuevos entornos operativos.

 

La imagen de síntesis, más que evidenciar una fractura epistemológica en la historia de la producción icónica (pintura, fotografía, cine, televisión)  que señalaría el tránsito de la representación a la simulación, lo que hace es poner de manifiesto aspectos ya presentes en esas técnicas tradicionales de producción de las imágenes. Y, aún más, podríamos decir que todo lenguaje simula, construye un modelo de la realidad de la que pretende hablar y para eso se aleja de ella y la simula. Como señala Gombrich[4], existe un fuerte modelo interpretativo en la pintura más “inocentemente imitativa”. Hay un vocabulario visual que cambia con la variación de los estilos dominantes y que sirve como filtro para que el artista pueda afrontar “los insidiosos caminos de la imitación de la realidad”. En estos casos simulación en pintura significa creación de un efecto de realidad cada vez más acentuado que, sin embargo, se consigue con el máximo artificio.

 

El ícono sintético es una construcción autorreferencial, en la que coinciden significante y significado. Es producido sólo a partir de un proceso interno de la máquina misma y, en este sentido, más que representar lo que hace es recrear. Como afirma Louis Weissberg, este procedimiento se inserta en la lógica que caracteriza a toda la historia de la expresión visual. “Los dibujos de animales en las grutas prehistóricas no eran imágenes en el sentido moderno del término. Transportaban al animal en carne y hueso a la superficie rocosa, inaugurando así la historia de la representación a través de la simulación”[5]

Algo similar ocurre con los íconos presentes en la pantalla de la computadora que son verdaderas “imágenes-objeto”, un término útil para describir los signos del ordenador gráfico que, al estar dotados de autonomía y coherencia interna, se asemejan a verdaderos objetos. Esa autonomía adquiere una característica muy particular. Significa, por un lado, la tendencia del ícono sintético a perder el vínculo referencial que lo unía al objeto representado. Pero, a la vez, ese ícono tiene una dependencia cada vez mayor con respecto al usuario -que está previsto por el programador- para que sea posible la interacción. Las imágenes de síntesis no están hechas para ser vistas, sino más bien, “…para ser objeto de continuas intervenciones por parte del usuario…Estas imágenes tienen el carácter de ‘objetos latentes’, sepultados en la memoria de un ordenador hasta que la energía y la fuerza de un espect-actor llega a despertarlos y a actualizarlos en la pantalla.”[6]

 

Se trata entonces de imágenes portadoras de una nueva materialidad que incluyen, como nunca antes, al usuario en el proceso de simulación. Por eso cuando se proyectan interfaces, los dispositivos de simulación no se dirigen a la creación de imágenes-casi-objetos individuales, sino que se proponen recrear las experiencias del usuario en el mundo físico. Las interfaces de manipulación directa permiten que el usuario, arrastrando el mouse sobre una pequeña superficie, mueva íconos que simulan objetos en la pantalla en un entorno virtual que recrea, por ejemplo, un escritorio (el desktop, la metáfora más difundida en los entornos operativos actuales). La exploración de superficies cambiantes tiene mucho de juego, de combinación de elementos, de asociación e intuición en la búsqueda de aquello que pueda funcionar. Las nuevas imágenes son dinámicas, seductoras, a veces esquivas.

 

Couchot[7] señala que “…no se lee una imagen interactiva: se la interroga, se la manipula, se dialoga con ella.” Y Bettetini-Colombo completan la idea diciendo que la transformabilidad propia de este tipo de imagen hace que se multiplique y se diferencie según las exigencias y los deseos de un usuario que se han vuelto conscientes. Por eso, la imagen de síntesis está hecha para la interacción, y aún más, está hecha de interacción.

 

En el ámbito de la interacción hombre-máquina, la simulación adquiere, según Colombo (“Ombre sintetiche”, 1990) la característica de  una “simulación comportamental”, por parte del sistema informático, de las modalidades de comportamiento de un interlocutor real o de un entorno en el que el hombre pueda actuar. Este modo de diseñar las interfaces se desarrolló a partir de una transformación del concepto de la computadora: de ser concebida como una máquina para procesar información pasó a convertirse en una máquina para comunicar. Y esto colocó al usuario en una posición central, lo que a su vez se tradujo en nuevos criterios valorativos a la hora de diseñar interfaces: adecuarse a las expectativas, gustos y competencias de ese usuario.

 

Podríamos hablar así de una serie de mecanismos de simulación comportamental. “Se trata de la implementación de reglas de comportamiento del sistema que hagan posible el diálogo con el usuario siguiendo correctamente las solicitudes de este último, integrándolas con un cierto nivel de autonomía y en tiempos asimilables a los de un coloquio interpersonal.”[8] Por ejemplo,  se tiende a simular la comprensión, la interpretación de las preguntas formuladas por el usuario construyendo reglas que garanticen la coherencia lógica de las respuestas, asimilables, de este modo, a las de un interlocutor humano. O se trata de simular una libertad para conversar mediante la construcción de un sistema que prevea la mayor cantidad posible de preguntas y de posibilidades combinatorias de orden. En estos casos, el modelo es la conversación interpersonal. También existen mecanismos de simulación comportamental que intentan emular la interacción del hombre con su entorno. Aquí encontramos las interfaces de manipulación directa de íconos a las que nos referíamos en los párrafos anteriores.

 

En relación con la calidad de los resultados de la interacción, podemos identificar, siguiendo a Bettetini-Colombo, dos niveles de interactividad íntimamente relacionados: de selección y de contenido. En el primer caso, el usuario interactúa con la máquina mediante una serie de selecciones de recorrido, de búsqueda o de operaciones que puede realizar de manera no totalmente prevista gracias a las múltiples combinaciones posibles. Por ejemplo, en el recorrido por una página web el usuario puede activar distintos links, no necesariamente vinculados entre sí, que se integran sólo a partir de su actividad cognoscitiva.  En el segundo caso, la implicación del usuario se ejerce a través de la activación de una serie de funciones previstas por el sistema para llegar a la realización de un producto (por ejemplo, una imagen, un texto o una animación que surgen de la interacción y constituyen una de sus partes). Y, por último, hay un elemento que es sumamente importante como parámetro organizador de la calidad: el tiempo. Porque la interactividad es algo que se da en el tiempo y la calidad se producirá precisamente organizando secuencias de acontecimientos. En el diálogo que el usuario entabla con un determinado programa, la casi inmediatez de la respuesta del sistema no se plantea como una simulación de los tiempos de la conversación interpersonal. Su función es mantener el contacto con el usuario, de asegurar una continuidad entre la acción del hombre y la respuesta de la máquina. “Se trata de un tiempo convencionalmente establecido en dos segundos, que define el término más allá del cual se supone que la comunicación ya no se percibe como interactiva.”[9]

 

Lo que caracteriza a la computadora –así como a otros artefactos inteligentes- es la capacidad de modificar sus comportamientos en función de ciertas variables externas. Instauran un coloquio con el usuario y definen con él (o con el ambiente) una interacción: uno actúa y reacciona en función del otro. Manzini define a estos artefactos como “objetos-cuasi-sujetos” y  amplía esta idea con un ejemplo. “Si la máquina de escribir no funciona, nos preguntamos qué es lo que se ha roto; si el procesador de textos no hace aquello que esperábamos que hiciera, nos preguntamos qué le ha sucedido.”[10]

 

Y para finalizar, una cita de Borges donde describe al misterioro planeta Tlön que bien podría servir como metáfora de nuestra relación con esa máquina también misteriosa por medio de la que hacemos emerger mundos virtuales (los actualizamos). “Las cosas se duplican en Tlön; tienden  asimismo a borrarse y a perder los detalles cuando los olvida la gente. Es clásico el ejemplo de un umbral que perduró mientras lo visitaba un mendigo y que se perdió de vista a su muerte. A veces unos pájaros, un caballo, han salvado las ruinas de un anfiteatro…¿Cómo no someterse a Tlön, a la minuciosa y vasta evidencia de un planeta ordenado? Inútil responder que la realidad también está ordenada. Quizá lo esté, pero de acuerdo a leyes divinas… que no acabamos de percibir. Tlön será un laberinto, pero es un laberinto urdido por los hombres, un laberinto destinado a que lo descifren los hombres. El contacto y el hábito de Tlön han desintegrado este mundo. Encantada por su rigor, la humanidad olvida que se trata de un rigor de ajedrecistas, no de ángeles.”[11]

 

 



[1] GOODMAN, NELSON, citado en LAUREL, BRENDA, “Computers as Theatre”, Ed. Wesley, Estados Unidos, 1992.

[2] Laurel, Brenda, “Computers as Theatre”, págs. 7 y 8, Estados Unidos, 1993.

[3] Shneiderman, “”The Future of Interactive Systems and the Emergence of Direct Manipulation”, 1982  y Hutchins et al., “Direct Manipulation Interfaces”, 1986 citados por LAUREL, BRENDA, op.cit.

[4] Gombrich, citado por Bettetini y Colombo, “Las nuevas tecnologías de comunicación”, Editorial Paidós Instrumentos, Buenos Aires-Barcelona, 1995.

[5] WEISSBERG, LOUIS, citado por Bettetini y Colombo, op.cit., págs. 89 y 90.

[6] Weissberg Louis, citado por Bettetini-Colombo, op.cit., pág. 95.

[7] Couchot, citado por Bettetini-Colombo, op.cit.

[8] Colombo-Vittadini, citado en Bettetini-Colombo, op.cit., pág. 163.

[9] COLOMBO-BETTETINI, op.cit., pág. 167.

[10] Manzini, Ezio, “Artefactos”, pág. 155, España, 1992.

[11] Borges, J.L., “Ficciones”, Alianza Editorial, Buenos Aires, 1944.

0 comentarios