• psikolog lisanne bainbridge tarafından 1980'lerde dile getirilen bir paradokstur, mükemmel otomatize edilen sistemler hata anında yine en az kendisi kadar mükemmel kullanıcı müdahalesine ihtiyaç duyar, ve gerçekten böyle bir şeye ihtiyaç duyulduğunda kullanıcı çoğunlukla ya hazır değildir, ya da o durumu anlamakta zorlanır, dolayısıyla sistemin ihtiyaç duyduğu kesin, etkin ve doğru müdahaleyi gerçekleştiremez. sonuçta sistemlerin her zaman ya tahmin edilemeyen, ya da önkoşullarının oluşması imkansız görüldüğü için önlem alınmayan, dolayısıyla hiç test edilmediği ortam parametreleri olduğunu söyleyebiliriz, yani %100 güvenilir denilen sistem hiçbir zaman %100 güvenilir değildir, o mümkün görünmeyen koşullar biraraya geldiğinde, operatör/kullanıcının hatayı yeterli sürede tespit edip doğru müdahaleyi yapma olasılığı da çok düşük kalmakta, sonuçlar da trajik olabilmektedir. havacılık ve otomotiv sektörlerinde etkilerini görmeye başladığımız bir alan olduğu için ilgi çekici olabilir, şurdaki kitapta da havacılıkta insan faktörü konusunda okumaya değer ayrıntılar var...

    örnekler:
    (1) yanlış konumlandırılmış butonlar, kullanıcıyı gerçekten şaşırtabilir...???
    (2) pilotlar için panik butonu fikir aşamasında, pilot ne yapacağını bilemiyorsa bu butona bassın...???
    (3) teknolojiye çok fazla güvenmek o kadar da iyi bir fikir olmayabilir: gps'in söylediklerini harfiyen uygulayan sürücü aracını nehrin içine kadar sürmeden durmuyor, gps orda bir yol olduğunu göstermiş ama nehri geçmek için bir feribot kullanılması gerektiğini söylememiş...???
    (4) sisteme o kadar da hakim olamayan kullanıcı tam da otomasyona güvenmesi gereken noktada yapması gerekenin tersini uygulayınca; toplam 49 ölü... (bkz: #22913160)
4 entry daha
hesabın var mı? giriş yap