设HI=人类智慧水平,MI=机器智慧水平,
则有
(0)HI远大于MI时,人类控制机器,正常状态,目前即处在此状态,此时MI越大越优;
(1)当机器智慧独立于人类智慧之后,MI增速远大于HI,直到|HI-MI|<eps的临界状态;
(2)在从机器智慧开始独立于人类智慧到临界状态的时间内,若机器没有出现反人类倾向,则临界状态之后,智慧水平高的一方会控制水平低的一方并向其灌输自己的智慧,最终出现人类和机器互相促进发展的局面(好结果0);
(3)若这段时间内机器出现明显反人类倾向,则临界状态后,人机大战开始,最终人类由于智慧的劣势会被机器消灭(坏结果),不过这段时间内,(HI-MI)越大,人类就越容易控制机器,避免出现反人类倾向;
(4)若机器智慧永远不独立于人类智慧,则正常状态一直持续下去,最终(HI-MI)会趋向于一个定值(人类在发展自身智慧的同时给机器灌输智慧,最终HI和MI增速相同),好结果1。
现在的问题是如何充分建设人类智慧,同时有限地发展机器智慧,使得MI*(HI-MI)^3的值尽可能大,从而趋向于好结果0或1,避免坏结果……
则有
(0)HI远大于MI时,人类控制机器,正常状态,目前即处在此状态,此时MI越大越优;
(1)当机器智慧独立于人类智慧之后,MI增速远大于HI,直到|HI-MI|<eps的临界状态;
(2)在从机器智慧开始独立于人类智慧到临界状态的时间内,若机器没有出现反人类倾向,则临界状态之后,智慧水平高的一方会控制水平低的一方并向其灌输自己的智慧,最终出现人类和机器互相促进发展的局面(好结果0);
(3)若这段时间内机器出现明显反人类倾向,则临界状态后,人机大战开始,最终人类由于智慧的劣势会被机器消灭(坏结果),不过这段时间内,(HI-MI)越大,人类就越容易控制机器,避免出现反人类倾向;
(4)若机器智慧永远不独立于人类智慧,则正常状态一直持续下去,最终(HI-MI)会趋向于一个定值(人类在发展自身智慧的同时给机器灌输智慧,最终HI和MI增速相同),好结果1。
现在的问题是如何充分建设人类智慧,同时有限地发展机器智慧,使得MI*(HI-MI)^3的值尽可能大,从而趋向于好结果0或1,避免坏结果……