Page 2 of 4
Posted: Fri Feb 20, 2004 1:57 pm
by Demandred
Знам ги почти анизуст законите, ама няма да ги постна, а ще ти кажа-марш да препрочетеш класиката, Рол!
Спокойно, бъзикам се, ще ги напиша по памет:
1.Роботът не може да причини вреда на човек или с бездействието си да допусне да бъде причинена вреда на човека.
2. Роботът трябва да се подчинява на човека, доколкото това не противоречи на 1.
3. Роботът трябва да се грижи за собствената си безопасност доколкото това не противоречи на 1 и 2.
Posted: Fri Feb 20, 2004 11:48 pm
by turin
Posted: Sat Feb 21, 2004 12:04 am
by Ghibli
Доколкото разбрах въпросът беше за самостоятелно мислеща машина, а разните там закони на роботиката и програмни кодове не ми съоветстват на представата за самостоятелно мислене. (Не ме питайте каква ми е представата, че става лошо.)
Защо хората се страхуват: според мен е напълно естествено, защото една машина е по-добра от човека във всяко отношение (така де, разбирате какво имам предвид), а това значи, че може лесно да го унищожи. Дори да има постигнати някакви мирни отношения, възможността винаги остава. Машината не притежава слабостта "морал", чистата логика е неумолима.
От друга страна, питала съм се доколко отказът на човека да следва логиката може да помогне за оцеляването му като вид. Ако докажеш на машината, че няма спасение, тя вероятно няма да го търси въпреки всичко, а за човека е свойствено да се надява (поне ако се вярва на писателите :).
Posted: Sat Feb 21, 2004 12:13 am
by Demandred
В "Голото слънце" действието не се развиваше на Луната и развръзката не беше такава. Това, което Турин описва, и аз си го спомням, но от коя точно книга на Азимов беше не помня.
BTW, имаше една интересна идея на Лем, че една разумна машина ще откаже да изпълнява команди и ще почне да се скатава от работа, защото това е най-лесния и разумен път. Това ми се струва разумна идея.
И аз съм съгласен с Гибли, истинският разумен ИИ трябва да е без разни ограничения.
Posted: Sat Feb 21, 2004 12:23 am
by Random
Според мен има три варианта.
1:Роботите са създадени като слуги на човечеството и са програмирани според трите закона на маестро Азимов.
2: Роботите са създадени като нова и самостоятелна раса и са освободени от ограничения(малко вероятно да се случи де). Верно така съществува опасност да ни затрият, но си мисля, че роботите, бидейки човешки творения, ще приличат прекалено много на създателите си и заплахата няма да е много по-голяма с тях или без тях. В Аниматрицата имаше едно филмче за възникаването на враждата между хора и роботи, което опонира доста силно на думите ми-там хората запалиха искрата, като започнаха масови гонения на машините, които просто искаха да си живеят нормално или нещо такова. Мисълта ми обаче е, че, за да създадем нова раса, първо трябва да сме достатъчно зрели да я приемем като равна на нас. Разбира се, с времето роботите вероятно ще се променят, но ако в природата им бъде заложен миролюбив и приятелски характер, по-вероятно е да се развият само към по-добро.
3:Нещо като ИИ от Хиперион(доста страшничък ми беше Техноцентърът, но и привлекателен освен това) - появил се след човешка намеса, но еволюирал до висш разум по някакъв неведомен начин. Това май е най-гадната възможност.
Интересна тема е това за роботите, но аз лично предпочитам в бъдеще хората да поработят повече над себе си вместо да създават ИИ(ако въобще ни е по силите) или да търсят други цивилизации. Някакси вярвам, че можем още доста да научим от себе си, ако си дадем шанс.
Posted: Sat Feb 21, 2004 3:07 pm
by Daggerstab
Така, тук е ред аз да се намеся - все пак уча информатика във ФМИ

"Голото слънце" се развиваше на колонизирана планета, а както винаги във фантастиката на Азимов, колонистите не обичаха земляните

Остави убийството, искаха да създадат армада от роботи-кораби

И въобще книгата се въртеше около начините човешката гадост да заобиколи законите на роботиката.
И на мен идеята на Лем за "симкретените", тоест изкуствените интелекти, които клинчат от работа, ми звучи много правдоподобно. Дори имам такъв полу-написан разказ за един университет, където се опитваха да направят софтуер за ИИ, без да знаят че всъщност вече са успели. Въпросният ИИ обаче симулираше тъпотия и се дънеше при Теста на Тюринг, за да НЕ стане световно известен, и си използваше способностите да съветва нощния пазач как да се отнася със жена си
чистата логика е неумолима
Само че какво е чиста логика? Цитат (по памет) от Айзък Азимов: "Проблемът е в това, че със строго логически разсъждения можеш да докажеш каквото си искаш - стига да подбереш съответните постулати. Ние си имаме едни постулати, КюТи - други."
Един ИИ може да разсъждава така - "Ако се противопоставя на хората, те ще воюват срещу мен. Съществува вероятност,макар и малка, след неопределен период дори да успеят да ме разрушат. От друга страна, ако им помагам малко от малко, те ще ме приемат за съюзник, и дори ще ме защитават." Така, сега кое е по-добре?;-)
Във моят фентъзи свят демоните са нематериални същества, въплъщение на чистия интелект - тоест нещо доста подобно на ИИ. Един от най-могъщите, съществували някога - Агатон, "едно време" започнал масирана война за завладяване на света (съвсем в Толкинов стил

). Но не защото бил лош - просто разглеждал хората като abstract entities, и войната всъщност за него била игра. (Играта и любопитството (според мен) са сред малкото неща, които биха мотивирали едно подобно същество.) Според легендата, илюзиите на въпросния демон били прекратени от магьосник, който го въплътил в човешко тяло, и демонът разбрал на какви страдания подлага хората.
а мисълта ми е, ако разчитаме на няколко ограничения, реализирани от неособен кадърни програмисти (ма сега да не се засегне някой, дето следва информатика

) пиши ни бегали, нямаме шанс срещу някой ИИ
Аз мисля обратното - точно на човешката некадърност трябва да разчитаме. В края на крайщата, всичко, сътворено от човек, може да бъде съсипано от човек, това хакерите и другите хора от моята черга добре го знаят

В "Октагон",не-помня-от-кого-беше, самообразувалият се ИИ беше разгромен защото двама от програмистите правили системата бяха включили backdoor, т.е. задна вратичка

, която прецакваше всичко.
Posted: Sat Feb 21, 2004 3:35 pm
by Moridin
Я, колега

Дай повечко инфо, кой курс, как се казваш, етц
Гибли, малко са ти пообъркани представите. Самата дума "машина" автоматично предполага закодирано поведение, дори да е саморазвиващо се. Машина, която е самодостатъчна, не е машина, а е просто нов биологичен вид, само дето силициево, а не въглеродно базиран
Направленията в страха са две, и двете ги казаха тука отделни хора. Едното е жестокото въображение че те биха се държали като нас (т.е. зле), ама имат много по-голяма ударна сила и издръжливост в какъвто и да е аспект. Другото е по-абстрактната идея, че ще се държат по начин, който всъщност ни е чужд (т.е. безчувствен) и не бихме могли да предвидим ефекта от такова държание, ето защо автоматично си представяме най-лошото.
Ние обаче най-вероятно самите ще станем машини, рано или късно. Единственото, което ще запазим, е съзнанието си. Тогава първата причина ще изчезне, но втората...
Posted: Sat Feb 21, 2004 7:45 pm
by Ghibli
Че са ми объркани представите е съвсем вярно; може би наистина имам предвид метален живот. Когато мисля за расата от машини, не си представям как могат да възникнат - създадени от човека, програмирани със задни вратички и т.н., а ги виждам вече съществуващи и отърсили се от всички пречки пред свободното мислене, ако някога ги е имало.
Posted: Sat Feb 21, 2004 8:41 pm
by Lubimetz13
Според мен самата несъвършеност на човешката природа ще бъде спънка пред създаването на съвършено съзнание. Това ще означава, че "моралът" на хората ще бъде предаден на техните творения, но тъй като никой не се познава достатъчно добре, че да опише целия си характер и ценностната си система в програма или код( а и навсякъде другаде), а обикновено несъзнателно изопачава същността си, вследствие от невъзможността си сам да я обхване, вероятно и самите машини ще бъдат изкривено огледало на самите нас, но неспособно да разсъждава различно от създателите си. Да не говорим, че моралът на хората още от дълбока древност се побира в мъдростта "ако вече е мъртъв, не го ритай повече, просто му вземи дрехите и бягай.", което, само по себе си, не е особено морално, но пък си е баш хуманно, ако го разбираме буквално. С други думи, ако успеем да създадем изкуствен интелект, той ще е в най-добрия( или лошия, де ) случай, бледо подобие на нас самите, несъвършено именно поради неспособността си да бъде несъвършено като нас, и така, в крайна сметка, съвършено. Тъй като това е класически парадокс, тип "Аз съм марсианец, и само марсианците винаги лъжат", аз лично, не мисля за него. Ако изобщо дойде време, когато човечеството се изправи пред него( за парадокса говоря, не за марсианеца ), аз едва ли ще съм сред живите, което автоматично ме навежда над мисълта, че...не ми пука особено за изкуствения интелект :Р
Posted: Sun Feb 22, 2004 12:33 am
by turin
Posted: Sun Feb 22, 2004 3:44 am
by Demandred
Извинявай, Турин. Спомените ми и проверката набързо се отнасяха само за главното разследвано убийство в книгата на съпруга на Гладиа, онова на онзи Груър го бях забравил.

Posted: Mon Feb 23, 2004 12:54 pm
by Bragir
Е то в кратце, ако стане издънка ще е в резултат на човешка грешка. Иначе не бих си купил никога новия "Автоматичен готвач с лазерно наточен комплект сатъри" на Micro$oft ;pp
Posted: Sun Feb 29, 2004 11:36 pm
by klamer
Аз малко оффтопик

Какво е все пак ИИ ?
Posted: Sun Feb 29, 2004 11:42 pm
by Icy Dawn
A.I. Artificial Intelligence
И.И. Изкуствен Интелект

Или поне се надявам така да беше... Ей откога не съм помирисвала English на живо...
Posted: Sun Feb 29, 2004 11:43 pm
by Matrim
Изкуствен Интелект.