what is reliability testing
¿Qué son las pruebas de confiabilidad?
preguntas y respuestas de entrevistas de analistas de calidad
La confiabilidad se define como la probabilidad de que el software funcione sin fallas durante un período de tiempo específico en un entorno particular.
Las pruebas de confiabilidad se realizan para garantizar que el software sea confiable, satisfaga el propósito para el que fue creado, durante un período de tiempo específico en un entorno dado y sea capaz de brindar una operación sin fallas.
En este mundo mecanizado, la gente hoy en día cree ciegamente en cualquier software. Cualquiera que sea el resultado que muestre el sistema de software, la gente lo sigue creyendo que el software siempre será correcto. De hecho, ese es un error común que todos cometemos.
Los usuarios piensan que los datos mostrados son correctos y que el software siempre funcionará correctamente. Aquí es donde entra en juego la necesidad de realizar pruebas de fiabilidad.
Según ANSI, la confiabilidad del software se define como la probabilidad de que el software funcione sin fallas durante un período de tiempo específico en un entorno particular.
Si un producto de software funciona sin fallos durante un período de tiempo determinado en un entorno específico, se le conoce como software fiable.
La confiabilidad del software reducirá las fallas durante el desarrollo del software. En los dispositivos electrónicos o instrumentos mecánicos, el software no puede tener un 'desgaste', aquí el 'desgaste' solo ocurre debido a los 'defectos' o 'errores' en el sistema de software.
Lectura recomendada => Consejos y trucos para encontrar un error
Lo que vas a aprender:
- ¿Qué son las pruebas de confiabilidad?
¿Qué son las pruebas de confiabilidad?
En el mundo actual, las aplicaciones de software se utilizan en todos y cada uno de los aspectos de nuestra vida, incluidos los sectores de la salud, el gobierno, las telecomunicaciones, etc.
Por lo tanto, necesitamos tener datos precisos en los que los usuarios puedan confiar. Las pruebas de confiabilidad se refieren a la calidad del software y la estandarización de los productos. Si somos capaces de repetir los casos de prueba y obtenemos el mismo resultado de manera constante, se dice que el producto es 'confiable'.
Las pruebas de confiabilidad se realizan para garantizar que el software sea confiable, satisfaga el propósito para el que fue creado, durante un período de tiempo específico en un entorno dado y sea capaz de brindar una operación sin fallas.
¿Cuándo utilizamos las pruebas de confiabilidad?
A continuación se muestran los escenarios en los que usamos esta prueba:
- Encontrar las fallas presentes en el sistema y la razón detrás de ellas.
- Asegurar la calidad del sistema.
Los casos de prueba deben diseñarse de tal manera que garanticen la cobertura total del software. Los casos de prueba deben ejecutarse a intervalos regulares para que podamos verificar el resultado actual y el resultado anterior y verificar si hay alguna diferencia entre ellos. Si muestra el mismo resultado o uno similar, entonces el software puede considerarse confiable.
Además, podemos probar la confiabilidad ejecutando los casos de prueba durante un período de tiempo particular y verificar si está mostrando el resultado correctamente sin fallas después de ese período de tiempo en particular. Mientras hacemos las pruebas de confiabilidad, debemos verificar las limitaciones del entorno como pérdida de memoria, batería baja, red baja, errores de base de datos, etc.
Tipos fundamentales para medir la confiabilidad del software
A continuación se enumeran algunos tipos fundamentales para medir la confiabilidad del software.
1) Fiabilidad test-retest
Considere la siguiente situación en la que estamos probando una funcionalidad, digamos a las 9:30 am y probando la misma funcionalidad nuevamente a la 1 pm. Posteriormente, comparamos ambos resultados. Estamos obteniendo una alta correlación en los resultados. Entonces podemos decir que la prueba es 'confiable'. Por lo general, una confiabilidad de 0.8 o más significa que el sistema puede considerarse como un producto altamente confiable.
Aquí, es muy importante tener en cuenta que la duración de la prueba sigue siendo la misma si tenemos 10 pasos en un caso de prueba, entonces el número de pasos seguirá siendo el mismo para realizar la prueba la próxima vez.
Considere lo particular Ejemplo de una persona que asiste a una 'prueba de CI' y obtiene 144 puntos. Después de 6 meses, toma la misma 'prueba de CI' y obtiene 68 puntos. En tal caso, no se le puede considerar como una fuente 'confiable'.
2) Forma paralela o alternativa de confiabilidad
Se llama así porque los probadores están realizando la prueba de dos formas al mismo tiempo.
3) Fiabilidad entre evaluadores
La confiabilidad entre evaluadores también se conoce como confiabilidad entre observadores o entre codificadores. Es un tipo especial de fiabilidad que consta de varios evaluadores o jueces. Se trata de la coherencia de la calificación presentada por diferentes evaluadores / observadores.
Por ejemplo , considere a un concursante participando en una competencia de canto y ganando 9,8,9 (de 10) puntos de varios jueces. Este puntaje puede considerarse 'confiable' ya que es bastante consistente. Pero si obtuvo 9,3,7 (sobre 10), entonces no se puede considerar como 'confiable'.
Nota: Estas calificaciones dependerán en gran medida del acuerdo general entre los diferentes jueces / evaluadores. Una vez que haya realizado una serie de observaciones, puede decidir que existe una especie de estabilidad entre las puntuaciones y, después de ese período de tiempo, podemos decir que son consistentes.
Por lo tanto, la estabilidad de la puntuación es una medida a través de múltiples observadores. Es muy importante tener en cuenta que la habilidad del observador también juega un papel importante cuando se trata de discutir la confiabilidad entre evaluadores. Para mejorar la confiabilidad entre evaluadores, los evaluadores necesitan capacitación u orientación adecuada.
Considere la hoja de Excel anterior y vea las calificaciones otorgadas por dos evaluadores diferentes Rater1 y Rater2 para 12 elementos diferentes. Rater1 ha calificado de forma independiente en la tabla de puntuación. Aquí, usando el marcador, ahora vamos a calcular el porcentaje de acuerdo entre los dos evaluadores. Esto se llama confiabilidad entre evaluadores o acuerdo entre evaluadores entre los dos evaluadores.
En la tercera columna, pondremos '1' si las puntuaciones de los evaluadores coinciden. Daremos '0' si las puntuaciones coinciden. Después de eso, encontraremos los números '1' y '0' en la columna. Aquí está el 8.
Número de '1' = 8
Número total de artículos = 12
Porcentaje de acuerdo = (8/12) * 100 = 67%. El 67% no es tanto. Los evaluadores deben estar más de acuerdo para que puedan discutir y mejorar el resultado en consecuencia.
Diferentes tipos de prueba de confiabilidad
Los diversos tipos de pruebas de confiabilidad se analizan a continuación para su referencia:
1) Prueba de funciones:
Esta prueba determina la idoneidad, es decir, prueba si la aplicación funciona como se espera para su uso indentado. Aquí, comprobará la interoperabilidad de una aplicación para probarla con los demás componentes y el sistema que interactúa con la aplicación.
Asegura la precisión del sistema para verificar si no se encuentran errores durante Prueba beta .
Aparte de esto, prueba algún tipo de seguridad y cumplimiento. Pruebas de seguridad está relacionado con la prevención del acceso no autorizado a la aplicación, ya sea de forma intencionada o no. En cumplimiento, verificaremos si la aplicación sigue ciertos criterios como estándar, reglas, etc.
2) Prueba de carga
Prueba de carga Verificará qué tan bien funciona el sistema en comparación con el sistema de competencia o el rendimiento. También se basa en el número de usuarios simultáneos que están utilizando el sistema y el comportamiento del sistema con los usuarios.
El sistema debe responder a los comandos del usuario con menos tiempo de respuesta (digamos 5 segundos) y cumplir con las expectativas del usuario.
3) Prueba de regresión
En Pruebas de regresión , comprobaremos si el sistema está funcionando bien y no se han introducido errores como resultado de la adición de nuevas funciones en el software. También se realiza cuando se ha solucionado un error y el evaluador necesita probarlo nuevamente.
Plan de prueba de confiabilidad
Durante las diferentes fases de SDLC (ciclo de vida de desarrollo de software), los usuarios pueden plantear muchas preguntas sobre el futuro del producto, como 'si son fiables o no'. Necesitamos tener una solución clara para tales preguntas. Con un modelo adecuado, podemos predecir el producto.
Los dos tipos de modelos incluyen:
- Modelo de predicción
- Modelo de estimación
En las pruebas predictivas, predecimos el resultado con los datos históricos, las estadísticas y el aprendizaje automático. Todo lo que necesitamos es escribir un informe. En un modelo predictivo, solo obtenemos cierta información histórica. Con esta información, podemos construir un diagrama de dispersión y dibujar una línea extrapolada a los datos históricos existentes y podemos predecir los próximos datos.
Este tipo de modelo se realiza antes de la propia etapa de desarrollo o prueba. En las Pruebas de Estimación, además de usar los datos históricos, usaremos los datos actuales. Aquí podemos predecir la confiabilidad de un producto en el tiempo presente o futuro. Este tipo de prueba se realiza durante las últimas etapas del Ciclo de vida del desarrollo de programas .
Herramientas de prueba de confiabilidad
Los probadores deben determinar la estimación de la confiabilidad de un software. Esto conducirá al uso de varias herramientas en la confiabilidad del software.
Al utilizar una herramienta estandarizada, podemos:
- Detecta la información de falla.
- Elija el modelo correcto para hacer una predicción sobre el software.
- Genere informes sobre las fallas.
Existen varias herramientas que están disponibles en el mercado para medir la confiabilidad del software, y algunas de ellas se mencionan a continuación:
CASRE (herramienta de estimación de confiabilidad de software asistida por computadora): Este no es un software gratuito, necesitamos comprarlo.
La herramienta de medición de confiabilidad CASRE se construye sobre la base de los modelos de confiabilidad existentes que ayudan a realizar mejores estimaciones de la confiabilidad de un producto de software. La GUI de la herramienta proporciona una mejor comprensión de la confiabilidad del software y también es muy fácil de usar.
Durante una prueba, ayuda a los usuarios a averiguar si la confiabilidad del sistema aumenta o disminuye mientras se usa un conjunto de datos de fallas. Carse proporciona una vista 2D al trazar el número de fallas contra el tiempo de intervalo de prueba y, por lo tanto, el usuario puede obtener un gráfico que representa el sistema como se muestra en la siguiente figura.
sistemas de punto de venta para ipad
Usando CASRE
- El usuario puede seleccionar datos de fallas.
- Especificando qué tan lejos en el futuro queremos predecir la confiabilidad del producto.
- Seleccione los modelos de confiabilidad.
- Seleccione un modelo apropiado para el resultado.
- Imprima el resultado de la falla.
- Guarde el resultado en el disco.
Otras herramientas utilizadas para probar la confiabilidad incluyen SOFTREL , SoRel (Análisis y predicción de confiabilidad del software), WEIBULL ++, etc.
Conclusión
Las pruebas de confiabilidad son costosas en comparación con otras formas de pruebas. Por lo tanto, para hacerlo de manera rentable, necesitamos tener un Plan de prueba y gestión de pruebas.
En SDLC, la prueba de confiabilidad juega un papel importante. Como se explicó anteriormente, el uso de métricas de confiabilidad traerá confiabilidad al software y predecirá el futuro del software. Muchas veces la confiabilidad del software es difícil de obtener si el software es de alta complejidad.
Lectura recomendada
- Mejores herramientas de prueba de software 2021 (Herramientas de automatización de pruebas de control de calidad)
- Trabajo de asistente de control de calidad de pruebas de software
- Curso de pruebas de software: ¿A qué instituto de pruebas de software debo unirme?
- Elegir las pruebas de software como carrera
- Trabajo autónomo de redactor de contenido técnico de pruebas de software
- Pruebas de aplicaciones: ¡los conceptos básicos de las pruebas de software!
- ¿Qué es la prueba de regresión? Definición, herramientas, método y ejemplo
- Algunas preguntas interesantes de la entrevista sobre pruebas de software