数学中国

 找回密码
 注册
搜索
热搜: 活动 交友 discuz
楼主: 志明

运用“通用公式”揭开“素数对”数量的变化之迷 ..

[复制链接]
发表于 2015-9-28 15:26 | 显示全部楼层
愚工688先生:
    建议您,像有的论文那样,列出(全部)《符号表》。如此,可令读者一目了然。
发表于 2015-9-28 18:13 | 显示全部楼层
本帖最后由 愚工688 于 2015-10-10 03:01 编辑
pAq 发表于 2015-9-28 07:26
愚工688先生:
    建议您,像有的论文那样,列出(全部)《符号表》。如此,可令读者一目了然。


这是与志明先生的讨论帖,以前也交流过,而他对我的观点也是了解的.一般的人都看得懂的,很少有人问.
我的文章里一般会交代清楚。
输出的参数含义:
M——偶数
S(m)—— 分成两个素数A±x的全部x值的数量;
S1(m)——符合条件a 的x值的数量(素对A±x 两者都>r);
Sp(m)——S(m)的概率计算值;理论上是S1(m)的概率计算值。
δ(m)—— 概率计算值Sp(m)对S(m)的相对误差;
δ1—— 概率计算值Sp(m)对S1(m)的相对误差;
K(m)——素数因子系数,由偶数所含的小于根号(M-2)的素因子决定;
r——小于根号(M-2)的最大素数。
发表于 2015-9-29 07:06 | 显示全部楼层
愚工688先生:
正好我有现成的计算程序:
2^10= [ 512 =]......

2^10=1024 (显然,出现了“机误”,您笔算一下试试)
请您把笔算过程和结果,贴到
《大于5的偶数分成两个素数的全部分法数量与计算》
发表于 2015-9-29 09:06 | 显示全部楼层
pAq 发表于 2015-9-28 23:06
愚工688先生:

2^10=1024 (显然,出现了“机误”,您笔算一下试试)

我在数据前面添加指数形式时都多了1位指数,把前面的指数形式去掉就可以了,我去改一下,这个不是程序的内容,手工添加的.
 楼主| 发表于 2015-9-30 00:13 | 显示全部楼层
本帖最后由 志明 于 2015-9-30 00:04 编辑

[quote]pAq 发表于 2015-9-28 01:04
志明先生:

    请您在有空时,用您的“通用公式”算一算,当 偶数=2^10,2^16 时的值,

paq先生:您好!
   运用计算机编程计算我完全不懂,贴子中的那个图片是我在网上偷来的,愚工688先生是编程计算的高手,并且我们俩的计算公式可以说是一样的,因此计算结果也是相同的(虽然有非常微小的差别,但是计算值本身是近似值,因此这种微小的差别完全可忽略)。

本人的数学知识非常浅薄,只是略懂一些很初等的数学知识,看不懂
“&#160(1,1)=x/4 ∏ (1-1/p) ∏ (1-2/p).( ┤为不整除)
                  p|x         p┤x  ”这个公式,请谅解。
    我认为,逻辑推理是否严密、是否合理才是证明的关键,具体分析某个或某些偶数,只能起到验证和辅助说明分析推理的思路和方法的作用。

    虽然连乘积公式有“容斥原理”等数学原理支撑,并有网友阐明,随着偶数的增大,其精确度是向百分之百靠近,但仍有很多人不能理解,他们认为哥猜需要证明的偶数是无限的,而可验证的偶数再大也只是有限的,在可验证的范围内公式的误差是有限的,但在不可验证的偶数中,可能有些偶数的误差是无限的。如果能运用某种分析方法再次证明公式的误差必定是有限的,就可以进一步强化公式的正确性和合理性。

如果您感兴趣的话您可看看
http://www.mathchina.com/bbs/for ... p;extra=&page=1
《运用“区域分析法”试证“哥猜公式”的误差率不会很高》

    内容简介如下:
    知道连乘积公式的人都知道,运用“容斥原理”和“逐步筛除法”得出的“哥猜公式”,按“逐步筛除法”无论进行多少次筛除,出现过多少次误差,这些误差最后都不会累积成为严重影响误差率的相对较大误差。并有网友验证,数据越大,准确率相对越高,误差率相对越低,其中必有某种数学关系能对误差产生调控作用。

    以往我们只是关注公式计算结果的误差情况或每次筛除时产生的误差,一般不会去关注某个区域中的误差。“区域分析法”就是经过分析发现:每次筛除所产生的误差(误差方向和误差值),是由与其相对应的分析区A/P范围内(A表示某个较大的偶数,P表示某个小于√A的素数)的误差(误差方向和误差值)确定的。如果与其相对应的分析区A/P范围内有误差,本次筛除必然会出现与分析区A/P范围内误差的绝对值相等、方向相反的误差

   因为分析区A/P的最大范围是从1至A/2,分析区A/P以外的最小范围是从A/2至A,因此,当累计误差值相对比较大时,误差不可能全部聚集在分析区A/P范围以外的范围,在分析区A/P的范围内必定也会有与累计误差同方向的误差,只要在相对应的分析区A/P范围内存在误差,在此次筛除时就必然会产生与分析区A/P范围内误差的绝对值相等、方向相反的误差。这种反方向的误差,可以冲减掉部分累计误差或扭转累计误差的方向。由此可知:连乘积公式自身具有调整和控制误差扩大的功能。

巳知:
1、小于√A的素数的倍数和两个以上小于√A的素数相乘的数的倍数都是有规律地排列;
并知:偶数A越大,在从1至A的范围内,其均衡性越好;
2、在每次筛除过程中,被筛除的连带筛除数也是有规律地排列,同理,在后续筛除时受它们影响的数据也是有规律地排列;
并知:偶数A越大,在从1至A的范围内,其均衡性越好;
   因此,偶数A越大,在逐步筛除过程中形成的累计误差的分布均衡性会越好,累计误差分布的均衡性越好,连乘积公式自身对误差的调控功能就可以发挥得越好。并且,偶数A越大,筛除的次数越多,也就是对误差的调控次数也越多,因为在理论上,从第二次筛除开始的每一次筛除,都是对误差的一次调控。
    通过以上分析可知:随着偶数A的不断增大,公式的精确度也会相对越高。
发表于 2015-9-30 09:23 | 显示全部楼层
志明 发表于 2015-9-29 16:13
[quote]pAq 发表于 2015-9-28 01:04
志明先生:

志明 先生:你好!
你的帖子里面:"虽然连乘积公式有“容斥原理”等数学原理支撑,并有网友阐明,随着偶数的增大,其精确度是向百分之百靠近,"——这是存在问题的。
我对大量偶数素对数量的实际计算,随着偶数的增大,相对误差将逐步的收敛于(0.16,0.20)内,而不是精确度是向百分之百靠近(也就是相对误差接近零)。
分区对10万内的偶数的素对的概率计算值的相对误差δ(m)作统计计算,结果如下:
(μ-区间相对误差均值;σx-标准偏差)

M=[ 6 , 100 ]         r= 7    n= 48    μ=-.2418 σχ= .2292  δ(min)=-.625  δ(max)= .3429
M=[ 6 , 1000 ]        r= 31   n= 498   μ=-.1685 σχ= .1263  δ(min)=-.625  δ(max)= .3429
M=[ 6 , 10000 ]       r= 97   n= 4998  μ=-.075  σχ= .0736  δ(min)=-.625  δ(max)= .3429
M=[ 10002 , 20000 ]   r= 139  n= 5000  μ=-.0315 σχ= .0361  δ(min)=-.1603 δ(max)= .1017
M=[ 20002 , 30000 ]   r= 173  n= 5000  μ=-.0100 σχ= .0288  δ(min)=-.1145 δ(max)= .1245  
M=[ 30002 , 40000 ]   r= 199  n= 5000  μ=-.0037 σχ= .0263  δ(min)=-.1034 δ(max)= .1101
M=[ 40002 , 50000 ]   r= 223  n= 5000  μ= .005  σχ= .0253  δ(min)=-.1021 δ(max)= .1131
M=[ 50002 , 60000 ]   r= 241  n= 5000  μ= .0082 σχ= .0219  δ(min)=-.0688 δ(max)= .1064
M=[ 60002 , 70000 ]   r= 263  n= 5000  μ= .0139 σχ= .0213  δ(min)=-.0681 δ(max)= .0993  
M=[ 80002 , 90000 ]   r= 293  n= 5000  μ= .0129 σχ= .0196  δ(min)=-.0597 δ(max)= .0976
M=[ 90002 , 100000 ]  r= 313  n= 5000  μ= .0218 σχ= .0174  δ(min)=-.038  δ(max)= .112

从上面的这些统计计算数据中,可看到:
①.在偶数最小的统计区间[ 6 , 100 ] 里,存在统计的相对误差δ(m)的最大值与最小值,说明小偶数时相对误差分布的离散性比较大些;平均值μ比较小(负值),这主要原因是小偶数时由于符合条件b的素数的x值并入的影响造成的;
②.在偶数趋大时,偶数的相对误差的δ(min)在增大,δ(max)在减小,即相对误差的分布范围在缩小,具有收敛性;
③.标准偏差σx随偶数增大而逐渐变小;
④.平均误差值μ随偶数增大缓慢地由负转正值,但是都很小,可以看出概率计算值与实际值是比较接近的。
这些偶数素对数量计算的相对误差δ(m)的分布的变化特点对于我们更精确的计算大偶数的素对数量是非常有用的。
.
更大偶数的样本数据:
5999999990 - 6000000088 : n= 50 μ= .1471  σx= .0002 δ(min)= .1466  δ(max)= .1474  
8000000000 - 8000000050 : n= 26 μ= .1486  σx= .0002 δ(min)= .1481  δ(max)= .1490
10000000000 -10000000098 :n= 50 μ= .1494  σx= .0002 δ(min)= .1491  δ(max)= .1497
15000000000 -15000000098 :n= 50 μ= .15159 σx= .00014  δ(min)= .1511 δ(max)= .15185
1000亿——10000亿的少数偶数的计算,相对误差的区域处于(0.16,0.17)之中;

可以看到偶数越大时统计的标准偏差越小,这是因为使得A±x 成为素对的值的取值范围扩大了,因此相对误差的波动越来越小;
为什么从概率方面讲,样本大了,应该误差中值接近0位,但实际却收敛于(0.16,0.20)内呢?
我是这样 看的:由于使得A±x 成为素对的可x值的取值范围[0,A-3]始终处于自然数列的边端,应该是边际的影响吧,但我不能从理论上面来说明这点。
发表于 2015-9-30 09:35 | 显示全部楼层
本帖最后由 愚工688 于 2015-9-30 03:43 编辑

因此,运用素对计算式P(m*)=P(m)/(1+ μ) 的方法,我们可以比较精确的计算出大偶数的素对:
使用上式加入了补偿系数0.160185 后对1000亿以上的偶数的素对的计算,真值G(m)用网友Ktprime的程序FastGn 得出:

G(129000000000) = 385918525, Sp( 129000000000 ) =  386167708.3 ,k(m)= 2.73171 ,δ=0.0006457;
G(129000000002) = 143754513 ,Sp( 129000000002 ) =  143845051.7, k(m)= 1.01754, δ=0.0006298;
G(129000000004) = 141432466, Sp( 129000000004 ) =  141529092.5, k(m)= 1.00116 δ=0.0006832;



再加几个不同数量级别的偶数,用同样的方法计算的素对:
G(102000000000) = 323900593,Sp( 102000000000 ) = 323900831.8 ,δ=0.00000074,k(m)= 2.84444  
G(102000000002) = 118525493,Sp( 102000000002 ) = 118517387.1 ,δ=-0.0000684,k(m)= 1.0408   
G(102000000004) = 136781198,Sp( 102000000004 ) = 136769773.9 ,δ=-0.0000835,k(m)= 1.20109  
 楼主| 发表于 2015-9-30 13:18 | 显示全部楼层
本帖最后由 志明 于 2015-9-30 05:24 编辑
愚工688 发表于 2015-9-30 01:23
志明 先生:你好!
你的帖子里面:"虽然连乘积公式有“容斥原理”等数学原理支撑,并有网友阐明,随着偶数 ...


愚工688先生:您好!
   您巳验证过1000亿——10000亿中的少数偶数,其结果是相对误差的区域处于(0.16,0.17)之中,我认为这是非常有价值和有意义的,虽然1000亿——10000亿这些偶数在哥猜所要证明的偶数中属于非常非常微小的偶数,但与那些较小的偶数进行对比,相对误差已经大幅度地明显降低了。这已经可以很明显地看出一种趋势,这种趋势就是“随着偶数的不断增大,公式的精确度也会相对不断提高。”这与“随着偶数的增大,其精确度是向百分之百靠近,”这一说法是一致的。

    因为1000亿——10000亿这些偶数在证题中属于非常非常微小的偶数,按“公式的精确度会随着偶数的增大而相对不断提高。”的这一趋势,随着偶数无限地不断增大,其相对误差会相对无限地不断下降,其精确度会相对无限地不断提高。因此,其精确度虽然永远达不到百分之百,但是,随着偶数无限地不断增大,其精确度必然是无限地不断向百分之百靠近。
发表于 2015-9-30 15:04 | 显示全部楼层
志明 发表于 2015-9-30 05:18
愚工688先生:您好!
   您巳验证过1000亿——10000亿中的少数偶数,其结果是相对误差的区域处于(0.1 ...

这里要区别的是,我们对小偶数的素对计算公式是:
Sp(m)=(A-2)P(m)
      =(A-2) P(2·3·…·n·…·r)
      =(A-2)*P(2)P(3)…P(n)…P(r)
      =(A-2)*(1/2)*f(3)*…*f(n)*…*f(r). -----------{式3}

而我对于大偶数使用的计算公式是
  Sp(m*)=Sp(m)/(1+μ)
        =(A-2)*(1/2)*f(3)*…*f(n)*…*f(r)/(1+μ). --------{式3*}

因此我对大偶数素对的计算的相对误差比较小,不是说明上面的{式3}在偶数趋大时的相对误差会越来越小,而是我已经预先用一个与相对误差接近的值μ进行了修正.
从相对误差统计的误差均值——修正值μ的取法来看,大偶数在进一步趋大的过程中,修正值μ的趋大则越来越缓慢.就是相对误差的增大越来越缓慢。
实际上,10000亿的偶数用{式3}的计算相对误差应该在0.17附近,更大的偶数的相对误差我只能估计在0.20以下了。
发表于 2015-10-1 19:24 | 显示全部楼层
今天我尝试着计算25000亿大小的偶数的素对,以此计算结果推算出上面的{式3} 在这个数量级别时的相对误差应该在0.17173附近。
同上面27楼的计算实例比较:偶数值增大约20倍,相对误差的增大不到10%。这现象与上面29楼的“大偶数在进一步趋大的过程中,相对误差的增大越来越缓慢”的分析相符。
实例:
用Sp(m *)=Sp(m)/(1+μ) 来计算20000亿以上偶数的素对数量,这里的μ=0.171,
G(2500000000000)= 2905563125, Sp( 2500000000000 *) =  2907310431.7 Δ=0.00060137   
G(2500000000002)= 4565802666, Sp( 2500000000002 *) =  4568630678.5 Δ=0.00061939  
G(2500000000004)= 2418910252, Sp( 2500000000004 *) =  2420440263.8 Δ=0.00063252  
G(2500000000006)= 2181243661, Sp( 2500000000006 *) =  2182612308.0 Δ= 0.0006275   

由此计算出在2.5万亿附近的偶数的实际相对误差应该在0.17173附近.(1.171*1.00062=1.17173)


您需要登录后才可以回帖 登录 | 注册

本版积分规则

Archiver|手机版|小黑屋|数学中国 ( 京ICP备05040119号 )

GMT+8, 2025-5-1 21:09 , Processed in 0.084329 second(s), 13 queries .

Powered by Discuz! X3.4

Copyright © 2001-2020, Tencent Cloud.

快速回复 返回顶部 返回列表