image
Inicio » Usabilidad y Accesibilidad » Art�culos sobre Usabilidad » Errores frecuentes en los test de usuarios




Errores frecuentes en los test de usuarios

 
Por Eduardo Manch�n
Art�culos publicados: 6
Valoraci�n media: 3.27/5
Usuario desde: 24/01/2003

Las comparaciones entre versiones de sitios web, la falta de una evaluaci�n heur�stica previa, el uso inadecuado de cuestionarios y la poca definici�n de tareas y medidas, son algunos de los errores que se pueden cometer en los test de usuarios.

"Dos o tres meses de test de usuarios pueden ahorrarte dos o tres horas en la biblioteca"
Mensaje en CHI-Web

Esta frase ilustra claramente la falta de conocimientos en IPO/HCI y metodolog�a experimental que provoca graves errores en muchos test de usuarios.

Las comparaciones de sitios web

El primero de estos errores intentar comparar varias versiones de un sitio web (o sitios diferentes) para averiguar cual de ellas es la que mejor funciona. En muchos casos se realiza una nueva versi�n del sitio web y se compara la versi�n vieja con la nueva o dos nuevas versiones entre si.

Una comparaci�n puede ser �til para convencer a un cliente de los beneficios de la usabilidad, pero no es lo m�s adecuado para mejorar la usabilidad del sitio. Realizar una comparaci�n es un derroche de recursos. Aunque siempre se debe testar el nuevo dise�o de un sitio, no tiene sentido testar la antigua versi�n del sitio para poder tener una referencia en la comparaci�n.

Generalmente la antigua versi�n suele tener muchos errores y la nueva a�ade o suprime funcionalidades, lo que hace que la compraci�n entre ambas no aporte informaci�n.

La comparaci�n tambi�n es inadecuada desde el punto de vista de la validez de los resultados. En la mayor�a de los casos los sitios que se comparan son muy diferentes. Si el resultado del estudio es que el sitio A es m�s usable o gusta m�s a los usuarios que el sitio B, �en qu� es mejor el sitio A que el sitio B?. En otras palabras, �qu� ha producido unos mejores resultados en el sitio A? No posible saberlo con certeza. Quiz�s en la nueva versi�n se ha mejorado la navegaci�n, pero empeorado la estructura de la informaci�n. El resultado de una comparaci�n tan grosera puede no indicar nada e incluso producir una gran confusi�n.

La comparaci�n como m�todo para obtener conclusiones tiene su fortaleza cuando los sitios comparados son id�nticos y solo difieren en una sola caracter�stica, es decir, la caracter�stica que estamos comparando. Por ejemplo, cambiar la barra de navegaci�n de posici�n, en lugar de arriba en horizontal a la izquierda en vertical, pero sin cambiar el resto de elementos. Pero en ese caso dla comparaci�n es muy ineficiente porque crear dos sitios id�nticos variando solo una caracter�stica es un proceso demasiado largo y costoso.

Adem�s las comparaciones requieren un mayor n�mero de sujetos para los test de usuarios para que no est�n contaminados por efectos de aprendizaje. No es posible hacer un dise�o intra-sujetos (el mismo sujeto testea varias versiones del sitio), sino �nicamente entre-sujetos (un sujeto testea un sola versi�n), lo que requiere el doble de sujetos y el consiguiente aumento en los costes.

El �nico uso adecuado de la comparaci�n como herramienta de la usabilidad es durante la fase de creaci�n de prototipos de bajo coste. Es posible crear dos prototipos id�nticos que solo var�en en una caracter�stica y realizar test de usuarios sobre ellos. Los prototipos deben ser meros cascarones vac�os, de elaboraci�n r�pida y bajo coste.

Lo m�s aconsejable es definir la creaci�n de un sitio web como un proceso iterativo donde se debe seguir un solo camino. Se deben enfocar todos los recursos disponibles al desarrollo de una �nica versi�n que se va testando sobre la marcha y refinando. La elaboraci�n de varias versiones diferentes de un sitio web y su comparaci�n a posteri supone el desaprovechamiento del trabajo de la versi�n (o versiones) descartada(s), trabajo que podr�a haber sido invertido en la mejora de una �nica versi�n.

No hacer una evaluaci�n heur�stica por expertos previa al test de usuarios

El segundo error m�s com�n es testar con usuarios un sitio web que no ha pasado por una evaluaci�n heur�stica por expertos previamente. Un profesional de la usabilidad puede realizar la evaluaci�n heur�stica de un sitio web de manera r�pida y detectar a bajo coste los errores de usabilidad.

Un sitio que no haya pasado por evaluaci�n heur�stica previa suele estar plagado de errores y en estas condiciones el test de usuarios descubre �nicamente los errores de bulto en el dise�o, pero no es capaz de aportar informaci�n realmente valiosa que justifique su alto coste.

Un experto puede detecar r�pidamente muchos problemas de usabilidad de un formulario de registro y proponer soluciones. Si se realiza directamente un test y los usuarios se quedan bloqueados en un paso del formulario no ser� posible evaluarlo completamente.

El peligro de los cuestionarios

Realizar preguntas a los usuarios preguntas tales como "�le ha parecido humano el sitio web?" o "�le parece bonito el sitio web?" es algo totalmente inadecuado. Preguntas como esta son las preferidas por los profesionales del marketing para cr�ticar un sitio muy usable, pero demasiado austero para su gusto. La pregunta est� sesgada, no aporta informaci�n valiosa y es una herencia de los estudios de mercado.

Internet es un medio cognitivo donde el procesamiento de informaci�n est� por encima de aspectos emocionales. Por supuesto, si se incluye una foto de una persona en un sitio web y se pregunta por este elemento al usuario, se fuerza una respuesta a una pregunta que quiz� nunca se habr�a planteado. En Internet es m�s importante "hacer" que "sentir" y la importancia de esta pregunta es escasa.

La definici�n de las tareas y medidas

El cuarto error m�s com�n es decidirse a realizar un test de usuarios sin definir de manera exacta las tareas a realizar y las medidas de usabilidad a tomar. Muchos test de usuarios ponen a interactuar a los usuarios con el sitio de manera "natural", es decir, son los propios usuarios deciden sus tareas y se supone que la interacci�n es la cotidiana y normal en el sitio. En otros casos se encargan tareas vagas y no se definen medidas claras.

En esas condiciones realizar una grabaci�n en v�deo como garant�a total de recogida de informaci�n es ir�nico. Si no se encargan tareas concretas, ni se toman medidas especificas, los resultados del test se reducir�n a la mera especulaci�n.

Los videos son apropiados para confirmar los resultados o ilustrarlos gr�ficamente, pero el an�lisis profundo de un v�deo requiere mucho tiempo y no se le puede considerar la base del test sino solo un complemento.

Para obtener medidas fiables se debe pedir a los usuarios completar diferentes tareas que simulen su comportamiento real: comprar un producto determinado, buscar una determinada informaci�n o responder a una pregunta que implique buscar y comparar informaci�n, etc.

Medidas objetivas de usabilidad son la tasa de finalizaci�n de la tarea, el tiempo, el n�mero de errores, la memoria, etc. (m�s informaci�n en el art�culo test de usuarios).




Bio:
Actualmente trabaja como especialista en Usabilidad en "laCaixa.es" en Barcelona, fundamentalmente en su canal web de banca on-line, aunque tambi�n en interfaces de cajeros, de voz, WAP, etc.

Estudi� Psicolog�a en la Universidad de Valencia y dos a�os en la Universidad de Bergen (Noruega), aunque es de Callosa de Segura (Alicante).

Ha escrito un cap�tulo sobre Usabilidad en un libro (pendiente de publicaci�n) de Ignacio Gil (Universidad Polit�cnica de Valencia). Tambi�n ha comenzado su doctorado en IPO/HCI y es moderador del foro sobre Usabilidad y AI, Cadius.org.

Tambi�n administra y escribe art�culos sobre usabilidad en su sitio web ainda.info.

Otros art�culos recientes de este autor:
Fecha publicaci�n: 15/02/2003


M�s art�culos

Valoraci�n

Este art�culo ha sido valorado 59 veces. Valor:  [2.81/5]   
Malo------>Normal----->Bueno
                   

Comentarios

Luis Herrera ([email protected])24/08/2003

Solo quisiera saber, es posible evaluar a un sitio Web desde todo punto de vista considerando factores como Recursos, Procesos, Producto, y a este �ltimo cuando est� en Uso (pasos que implicaron o que implican de momento el desarrollo de un SW), y no solamente evaluar parametros de un producto terminado (satisfaccion del usuario, audiencia, calidad del sitio, etc). Acaso �nicamente estas elementos determinan la usabilidad de un sitio Web.? Gracias por despejar mi duda....

A�adir un comentario

Si no est� de acuerdo con algo o quiere a�adir m�s informaci�n al respecto puede incluirla a�adiendo un comentario.

Nombre:
E-Mail: (opcional)
Los comentarios son moderados, no aparecen inmediatamente, son le�dos por el administrador y publicados seg�n el inter�s para otros lectores.

Se reserva el derecho de publicaci�n de los comentarios introducidos.

Colabora

�Te sientes capacitado para escribir un art�culo como este? �Te gustar�a colaborar escribiendo art�culos en WebEstilo? H�znoslo saber !!









Comparte



Enlaces
Cocina Facil IngenieroSoftware.com  
Última modificación:31 de Agosto de 2017. Spain - Espa�a.
© 1998-2004 por . Todos los derechos reservados.