|
Autor |
Wiadomość |
norbert
Pisze często

Dołączył: 21 Sty 2006
Posty: 63 Przeczytał: 0 tematów
Pomógł: 1 raz Ostrzeżeń: 0/4
Skąd: z przed minitora
|
Wysłany:
Śro 21:36, 15 Mar 2006 |
 |
Słyszeliście że:
Armia amerykańska zamierza uzbroić swoje oddziały stacjonujące w Iraku, w nowego robota o nazwie SWORDS, wyposażonego w karabin maszynowy. Jak podaje serwis The Inquirer, narusza to nieformalne prawa robotyki Asimova, z których pierwsze zakazuje robotom krzywdzenia ludzi.
Mechaniczny żołnierz SWORDS (Special Weapons Observation Reconnaissance Detection Systems) będzie posiadał karabin M249 lub model M240, które strzelają z prędkością odpowiednio 750 i 1 tys. nabojów na minutę.
Robot będzie komunikował się z centrum dowodzenia za pomocą fal radiowych. Jak zapewnia komunikat wojska, decyzję o podjęciu ostrzału wrogiej pozycji podejmie zdalny operator maszyny, a nie sam robot.
Przedstawiciele amerykańskiej armii planują również wprowadzenie bardziej mobilnego interfejsu do kontroli mechanicznego żołnierza, składającego się z niewielkiej konsoli oraz okularów z projekcją trójwymiarową.
pewnie niewiecie co to są prawa robotyki??
odp:
PRAWA ROBOTYKI
Jeden z czołowych pisarzy nurtu science fiction, Isaac Asimov (1920-1992), czujący na sobie odpowiedzialność wielu swoich Czytelników przerażonych wizją świata opanowanego przez inteligentne maszyny, ale również, jak nie przede wszystkim, ze względu na głębie swoich myśli, pokusił się o stworzenie zwięzłego kodeksu postępowania dla przyszłych inteligentnych robotów.
Przedstawił go w opowiadaniu Runaroud, opublikowanym pierwszy raz w 1942 r., a ograniczył do kilku zwięzłych praw:
1. A robot may not injure a human being, or, through inaction, allow a human being to come to harm.
2. A robot must obey the orders given it by human beings except where such orders would conflict with the First Law.
3. A robot must protect its own existence as long as such protection does not conflict with the First or Second Law.
Czyli:
1. Robot nie może być niebezpieczny dla człowieka.
2. Robot musi być zawsze posłuszny człowiekowi, chyba że jest to sprzeczne z pierwszym prawem.
3. Robot musi unikać niebezpieczeństwa, chyba że jest to sprzeczne z pierwszy, bądź/i drugim prawem.
I choć na pierwszy rzut okaz prawa te wydają się być całkiem słuszne, to kryją się w nich, co zaraz spróbuję wykazać, pewne wątpliwości. Sprawę tę już poruszałem w swoich publikacjach kilkakrotnie (Por. chociażby M. Kasperski, Sztuczna Inteligencja, Wyd. Helion (zob., strona książki)).
Co będzie, gdy człowiek każe komputerowi zakochać się w sobie?
Co będzie, gdy każemy mu sprzeciwiać się spełnieniu chociaż części naszych poleceń?
Rozważę problem 1. Miłość, czy nawet zakochanie, to są takie stany, których nikomu nie można narzucić – albo ktoś nas kocha, albo nie, ew. udaje, że kocha. Do istoty miłości (i zakochania) należy czynnik własnej woli, wolności. To poszczególny podmiot z osobna decyduje w kim "lokuje swoje piękne myśli" (jak to wyraził w Uczcie Platon). Czy zatem możliwa jest w ogóle taka sytuacja, aby kazać się komuś/czemuś zakochać w innej osobie? Odpowiedź jest prosta – NIE. Więc w takim razie pozostaje pytanie otwarte: Co z tym zadaniem mógłby zrobić sztuczny system myślący?
Z drugiego prawa Asimova wynika, że musi podjąć się tego zadania – musi się zakochać we wskazanej przeze mnie osobie – jednakże odwołując się do definicji miłości – jej istoty – nie mógłby tego uczynić. Zatem? Najprawdopodobniej doszłoby do tzw. zapętlenia się maszyny – powtarzałaby w nieskończoność proces wyboru pomiędzy stronami konfliktu: 2 prawem Asimova i wyżej postawionym rozkazem.
Rozważę problem 2. Sytuacja jest podobna do powyższej. Dotyczy również drugiego prawa, bo jeżeli system musi wykonywać każdy rozkaz człowieka (oczywiście jeżeli nie jest on sprzeczny z (1)), to również musi przyjąć rozkaz sprzeciwiania się chociaż części rozkazów. Jednakże w dalszej części swojego funkcjonowania będzie zachodziła sprzeczność pomiędzy drugim prawem robotyki, a powyższym rozkazem. Zatem? Najprawdopodobniej to, do czego prowadzi nas i pierwszy problem – zapętlenie.
Również problemy natury etycznej jak, eutanazja czy aborcja, powodują, iż powyższe prawa stają się bezużyteczne (następuje konflikt praw (1) z (2)). Te proste dwa problemy pokazują, iż z pewnością można by znaleźć ich o wiele więcej i, że prawa robotyki Asimova wymagają korekty – dookreślenia. Przynajmniej takie jest moje zdanie! |
Post został pochwalony 0 razy
|
|
 |
 |
|
 |
Bunio
Moderator

Dołączył: 26 Mar 2006
Posty: 9 Przeczytał: 0 tematów
Ostrzeżeń: 0/4
Skąd: Quel'Thalas
|
Wysłany:
Nie 19:04, 26 Mar 2006 |
 |
Dosyć pochopne posunięcie armii amerykańskiej.
W ogóle ich nie rozumiem.
Zaczęli jakąś plugawą wojnę ,a teraz próbują się bronić...  |
Post został pochwalony 0 razy
|
|
 |
 |
|
fora.pl - załóż własne forum dyskusyjne za darmo
Powered by phpBB
© 2001/3 phpBB Group :: FI Theme ::
Wszystkie czasy w strefie EET (Europa)
|
|
|