Telegram Group & Telegram Channel
AI safety

для человека, который увлекся ИИ от страха, попадание в AI safety было вопросом времени. это междисциплинарная область на стыке computer science и философии, которая занимается вопросами безопасности применения ИИ и направлена на обеспечение того, чтобы любые разработанные системы и модели ИИ работали так, как первоначально предполагали разработчики, не приводя к непредвиденным последствиям типа уничтожения человечества.

на масштабе повседневности это сводится к развитию методов для контроля и регуляции за тем, чтобы ИИ не обманывал, не воровал, делал что говорят и вообще был хорошим и пушистым.

вопросы эти беспокоят людей давно — вокруг них построены почти все сюжеты известных техно-дистопий. также вы, возможно, слышали о законах робототехники Айзека Азимова:

1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.

звучит складно, но например эти правила не мешают роботу убить вашу собаку во время решения задачи “прибраться в квартире” — формального противоречия не будет. Азимов это прекрасно понимал и свои сюжеты тоже часто строил вокруг вложенных в эти законы противоречий. а спустя ~40 лет после описания трех правил еще одно нулевое:

0. Робот не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был причинён вред.

ну то есть за все хорошее (для человечества), против всего плохого. так победим! но к сожалению, никакой набор из N правил не может быть полным, потому что всегда найдется какая-то лазейка между ними всеми, которую вы не предусмотрели, а ИИ использовал, чтобы хакнуть постановку задачи.

завтра я улетаю в Англию на школу по AI safety, чему очень рад. буду держать вас в курсе, а вы пишите, если будут вопросы по этой теме. также если кто-то здесь живет в Лондоне или Манчестере, буду рад повидаться!

#AI_safety



tg-me.com/levels_of_abstraction/48
Create:
Last Update:

AI safety

для человека, который увлекся ИИ от страха, попадание в AI safety было вопросом времени. это междисциплинарная область на стыке computer science и философии, которая занимается вопросами безопасности применения ИИ и направлена на обеспечение того, чтобы любые разработанные системы и модели ИИ работали так, как первоначально предполагали разработчики, не приводя к непредвиденным последствиям типа уничтожения человечества.

на масштабе повседневности это сводится к развитию методов для контроля и регуляции за тем, чтобы ИИ не обманывал, не воровал, делал что говорят и вообще был хорошим и пушистым.

вопросы эти беспокоят людей давно — вокруг них построены почти все сюжеты известных техно-дистопий. также вы, возможно, слышали о законах робототехники Айзека Азимова:

1. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинён вред.
2. Робот должен повиноваться всем приказам, которые даёт человек, кроме тех случаев, когда эти приказы противоречат Первому Закону.
3. Робот должен заботиться о своей безопасности в той мере, в которой это не противоречит Первому или Второму Законам.

звучит складно, но например эти правила не мешают роботу убить вашу собаку во время решения задачи “прибраться в квартире” — формального противоречия не будет. Азимов это прекрасно понимал и свои сюжеты тоже часто строил вокруг вложенных в эти законы противоречий. а спустя ~40 лет после описания трех правил еще одно нулевое:

0. Робот не может причинить вред человечеству или своим бездействием допустить, чтобы человечеству был причинён вред.

ну то есть за все хорошее (для человечества), против всего плохого. так победим! но к сожалению, никакой набор из N правил не может быть полным, потому что всегда найдется какая-то лазейка между ними всеми, которую вы не предусмотрели, а ИИ использовал, чтобы хакнуть постановку задачи.

завтра я улетаю в Англию на школу по AI safety, чему очень рад. буду держать вас в курсе, а вы пишите, если будут вопросы по этой теме. также если кто-то здесь живет в Лондоне или Манчестере, буду рад повидаться!

#AI_safety

BY уровни абстракции


Warning: Undefined variable $i in /var/www/tg-me/post.php on line 283

Share with your friend now:
tg-me.com/levels_of_abstraction/48

View MORE
Open in Telegram


telegram Telegram | DID YOU KNOW?

Date: |

Spiking bond yields driving sharp losses in tech stocks

A spike in interest rates since the start of the year has accelerated a rotation out of high-growth technology stocks and into value stocks poised to benefit from a reopening of the economy. The Nasdaq has fallen more than 10% over the past month as the Dow has soared to record highs, with a spike in the 10-year US Treasury yield acting as the main catalyst. It recently surged to a cycle high of more than 1.60% after starting the year below 1%. But according to Jim Paulsen, the Leuthold Group's chief investment strategist, rising interest rates do not represent a long-term threat to the stock market. Paulsen expects the 10-year yield to cross 2% by the end of the year. A spike in interest rates and its impact on the stock market depends on the economic backdrop, according to Paulsen. Rising interest rates amid a strengthening economy "may prove no challenge at all for stocks," Paulsen said.

A Telegram spokesman declined to comment on the bond issue or the amount of the debt the company has due. The spokesman said Telegram’s equipment and bandwidth costs are growing because it has consistently posted more than 40% year-to-year growth in users.

telegram from hk


Telegram уровни абстракции
FROM USA