首頁 > 文章中心 > 大數據經濟分析

          大數據經濟分析

          前言:想要寫出一篇令人眼前一亮的文章嗎?我們特意為您整理了5篇大數據經濟分析范文,相信會為您的寫作帶來幫助,發現更多的寫作思路和靈感。

          大數據經濟分析

          大數據經濟分析范文第1篇

          關鍵詞:告警數據 Hadoop Spark

          1 引言

          隨著電信網絡的不斷演進,全省數據網、交換網、接入網設備單月產生告警原始日志近億條。以上告警通過網元網管、專業綜合網管、智能網管系統[1]三層收斂,監控人員每月需處理影響業務或網絡質量的告警事件為20萬條,但一些對網絡可能造成隱患的告警信息被過濾掉。如何從海量告警數據中獲取與網絡性能指標、運維效率相關的有價值的數據,對于傳統的關系型數據庫架構而言,似乎是一個不可能完成的任務。

          在一般告警量情況下,ORACLE數據處理能力基本可以滿足分析需求,但當告警分析量上升到億級,如果采用傳統的數據存儲和計算方式,一方面數據量過大,表的管理、維護開銷過大,要做到每個字段建索引,存儲浪費巨大;另一方面計算分析過程耗時過長,無法滿足實時和準實時分析需求。因此必須采用新的技術架構來分析處理海量告警信息,支撐主動維護工作顯得尤為必要,為此我們引入了大數據技術。

          2 分析目標

          (1)數據源:電信運營商網絡設備告警日志數據,每天50 G。

          (2)數據分析目標:完成高頻翻轉類(瞬斷)告警分析;完成自定義網元、自定義告警等可定制告警分析;完成被過濾掉的告警分析、TOPN告警分析;核心設備和重要業務監控。

          (3)分析平臺硬件配置:云計算平臺分配8臺虛擬機,每臺虛機配置CPU16核;內存32 G;硬盤2 T。

          3 制定方案

          進入大數據時代,行業內涌現了大量的數據挖掘技術,數據處理和分析更高效、更有價值。Google、Facebook等公司提供可行的思路是通過類似Hadoop[2]的分布式計算、MapReduce[3]、Spark[4]算法等構造而成的新型架構,挖掘有價值信息。

          Hadoop是Apache基金會用JAVA語言開發的分布式框架,通過利用計算機集群對大規模數據進行分布式計算分析。Hadoop框架最重要的兩個核心是HDFS和MapReduce,HDFS用于分布式存儲,MapReduce則實現分布式任務計算。

          一個HDFS集群包含元數據節點(NameNode)、若干數據節點(DataNode)和客戶端(Client)。NameNode管理HDFS的文件系統,DataNode存儲數據塊文件。HDFS將一個文件劃分成若干個數據塊,這些數據塊存儲DataNode節點上。

          MapReduce是Google公司提出的針對大數據的編程模型。核心思想是將計算過程分解成Map(映射)和Reduce(歸約)兩個過程,也就是將一個大的計算任務拆分為多個小任務,MapReduce框架化繁為簡,輕松地解決了數據分布式存儲的計算問題,讓不熟悉并行編程的程序員也能輕松寫出分布式計算程序。MapReduce最大的不足則在于Map和Reduce都是以進程為單位調度、運行、結束的,磁盤I/O開銷大、效率低,無法滿足實時計算需求。

          Spark是由加州伯克利大學AMP實驗室開發的類Hadoop MapReduce的分布式并行計算框架,主要特點是彈性分布式數據集RDD[5],中間輸出結果可以保存在內存中,節省了大量的磁盤I/O操作。Spark除擁有Hadoop MapReduce所具有的優點外,還支持多次迭代計算,特別適合流計算和圖計算。

          基于成本、效率、復雜性等因素,我們選擇了HDFS+Spark實現對告警數據的挖掘分析。

          4 分析平臺設計

          4.1 Hadoop集群搭建

          基于CentOS-6.5系統環境搭建Hadoop集群,配置如表1所示。

          4.2 Spark參數設置[6]

          Spark參數設置如表2所示。

          4.3 數據采集層

          數據采集:由于需采集的告警設備種類繁多,故采取分布式的告警采集,數據網設備、交換網設備、接入網設備分別通過IP綜合網管、天元綜合網管、PON綜合網管進行采集,采集周期5分鐘一次。采集機先將采集到的告警日志文件,通過FTP接口上傳到智能網管系統文件服務器上,再對文件進行校驗,通過Sqoop推送到Hadoop集群上。

          4.4 邏輯處理層

          (1)建立高頻翻轉告警監控工作流程

          先將海量告警進行初步刪選,通過數量、位置和時間三個維度的分析,得出高頻翻轉類告警清單列表,最后由專業工程師甄別確認,對某類告警進行重點關注和監控。

          (2)差異化定制方案

          按組網架構細分,針對核心重要節點的所有告警均納入實時監控方案;

          按業務網絡細分,針對不同業務網絡設計個性化的監控方案;

          按客戶業務細分,針對客戶數字出租電路設計個性化的監控方案。

          4.5 數據分析層

          Spark讀取Hive[7]表的告警數據,然后在Spark引擎中進行SQL統計分析。Spark SQL模K在進行分析時,將外部告警數據源轉化為DataFrame[8],并像操作RDD或者將其注冊為臨時表的方式處理和分析這些數據。一旦將DataFrame注冊成臨時表,就可以使用類SQL的方式操作查詢分析告警數據。表3是利用Spark SQL對告警工單做的一個簡單分析:

          5 平臺實踐應用

          探索運維數據分析的新方法,利用大數據分析技術,分析可能影響業務/設備整體性能的設備告警,結合網絡性能數據,找到網絡隱患,實現主動維護的工作目標。

          5.1 高頻翻轉類告警監控

          首先制定了高頻翻轉類告警分析規則,將連續7天每天原始告警發生24次以上定義為高頻翻轉類告警,并基于大數據平臺開發了相應的分析腳本,目前已實現全專業所有告警類型的分析。表4是全省高頻翻轉類TOP10排名。

          5.2 核心設備和重要業務監控

          目前以設備廠商或專家經驗評定告警監控級別往往會與實際形成偏差,主要表現在以下幾個方面:監控級別的差異化設定基于已知的告警類型,一旦網絡重大故障上報未知的告警類型就無法在第一時間有效監控到;同一類型的故障告警出現在不同網絡層面可能影響業務的程度是完全不同的;不同保障級別的客戶對故障告警監控的實時性要求也是不同的。

          通過大數據分析平臺對差異化監控提供了靈活的定制手段,可根據告警關鍵字,分專業、地市、網管、機房、告警頻次等維度自主定制需要的告警數據,實現日、周、月、某個時間區等統計分析。

          應用案例:省NOC通過大數據分析出一條編號為CTVPN80113的中國平安大客戶電路在一段時間內頻繁產生線路劣化告警,但用戶未申告,省NOC隨即預警給政企支撐工程師,政支工程師與用戶溝通后,派維護人員至現場處理,發現線路接頭松動,緊急處理后告警消除、業務恢復。

          5.3 被過濾告警分析

          全省每天網絡告警數據300萬條~500萬條,其中99%都會根據告警過濾規則進行過濾篩選,把過濾后的告警呈現給網絡監控人員。過濾規則的準確性直接影響告警數據的質量。一般來說告警過濾規則可以從具有豐富運維經驗的網絡維護人員獲得,但是這個過程非常繁瑣,而且通過人工途徑獲得的告警過濾規則在不同的應用環境可能存在差異,無法滿足網絡維護的整體需要。采用大數據技術對被過濾的告警進行分析可以很好地完善過濾規則,讓真正急迫需要處理的告警優先呈現給維護人員及時處理,真正做到先于客戶發現故障。表5是動環專業被過濾的告警情況分布。

          5.4 動環深放電分析

          動環網管通過C接口采集蓄電池電壓數據,在停電告警產生之后,電壓數據首次下降到45 V,表示該局站電池出現深放電現象,通過計算這一放電過程的持續時間,記為深放電時長,該時長可以初步反映電池的放電性能。一個局站每天產生幾十萬條電壓等動環實時數據。

          在告警數據分析的基礎上,實現對蓄電池電壓變化數據的分析,提醒分公司關注那些深放電次數過多和放電時長過短的局站,核查蓄電池、油機配置、發電安排等,并進行整治。利用Spark SQL統計了一個月內撫州、贛州、吉安三分公司幾十億條動環數據,分析了其中深放電的情況如表6所示。

          6 結論

          本文利用HDFS+Spark技術,實驗性地解決告警數據存儲和分析等相關問題:一是通過數據分析,從海量告警數據中發現潛在的網絡隱患;二是結合資源信息和不同專業的告警,最終為用戶提供綜合預警;三是轉變網絡監控思路和方式,通過數據匯聚、數據相關性分析、數據可視化展示,提高了網絡監控效率;最后還擴展到對動環實時數據、信令數據進行分析。

          從實際運行效果來看,HDFS和Spark完全可以取代傳統的數據存儲和計算方式,滿足電信運營商主動運維的需求。

          參考文獻:

          [1] 中國電信股份有限公司. 中國電信智能網管技術規范-總體分冊[Z]. 2015.

          [2] Tom white. Hadoop權威指南[M]. 4版. 南京: 東南大學出版社, 2015.

          [3] RP Raji. MapReduce: Simplified Data Processing on Large Clusters[Z]. 2004.

          [4] Spark. Apache Spark?[EB/OL]. [2016-11-27]. http:///.

          [5] Matei Zaharia, Mosharaf Chowdhury, Tathagata Das, et al. Resilient Distributed Datasets: A Fault-Tolerant Abstraction for In-Memory Cluster Computing[J]. Usenix Conference on Networked Systems Design & Implementation, 2012,70(2): 141-146.

          [6] S鵬. Apache Spark源碼剖析[M]. 北京: 電子工業出版社, 2015.

          [7] Hive. Apache HiveTM[EB/OL]. [2016-11-27]. http:///.

          [8] Holden Karau, Andy Konwinski, Patrick Wendell, et al. Learning Spark: Lightning-Fast Big Data Analysis[M]. Oreilly & Associates Inc, 2015.

          [9] 員建廈. 基于動態存儲策略的數據管理系統[J]. 無線電工程, 2014,44(11): 52-54.

          大數據經濟分析范文第2篇

          關鍵詞: ULV處理器; 數據分流平臺; 警務數據處理系統; 數據分流方案

          中圖分類號: TN911?34; TP393 文獻標識碼: A 文章編號: 1004?373X(2017)08?0033?03

          Design of data distribution platform in large?scale police data processing system

          SONG Hua1, LUO Xingyu2, YAN Huifeng2

          (1. Chongqing Police College, Chongqing 401331, China;

          2. College of Mobile Telecommunications, Chongqing University of Posts and Telecom, Chongqing 401520, China)

          Abstract: As the previous data distribution platform for large?scale police data processing system is still at the development stage, and its data distribution efficiency, accuracy and effect are poor, a new data distribution platform for large?scale police data processing system was designed, whose core equipment is the ULV processor. The police data processing system has three levels of data streams. The ULV processor of the platform uses the physical hardware to distribute the data streams in three levels. The Web services processor written in Hash mapping function distribution scheme is adopted to distribute the result of the distribution hardware by software. The distribution results of the data streams in the first and second levels are given. The data stream in the third level is refined and corrected according to the protocol to acquire final distribution results. The analysis of the experiment result shows that the designed platform has high efficiency, high accuracy and good effect of distribution.

          Keywords: ULV processor; data distribution platform; police data processing system; data distribution scheme

          0 引 言

          大型警帳據處理系統是一種能夠在內部進行警務工作協調的應用系統,對公安機關意義重大。2013年,隨著大數據時代的悄然來臨,公安機關產生的數據量不斷攀升,大型警務數據處理系統的處理能力也隨之下降,為此,一些科研人員在大型警務數據處理系統中加入數據分流平臺,以合理分配數據流量、提升系統處理能力[1?3]。以往為大型警務數據處理系統設計出的數據分流平臺通常處于持續開發階段,故不具備較高的分流速率和分流準確度,分流效果自然不好,因此,為大型警務數據處理系統設計一種新型的數據分流平臺。

          1 大型警務數據處理系統中數據流層次的劃分

          在公安機關中,大型警務數據處理系統的不同輸入模塊將會產生多種類型的數據流,對這些數據流的分層處理是提高數據分流平臺分流速率和分流準確度的前提條件。因而,在數據分流平臺開始進行分流工作前,需要先對大型警務數據處理系統數據流的層次進行合理劃分。對大型警務數據處理系統數據流層次的劃分依據 “由上至下、邏輯細化”的原理,如圖1所示。

          由圖1可知,大型警務處理系統的數據流共被劃分為三個層次。第一層次包含綜合部門、調度部門和人事部門產生的數據流,這一層次中的數據流較為籠統,數據分流工作的進行相對容易;第二層次包含檔案部門、考核部門和后勤部門,這一層次中的數據流細化程度較高,但數據的類型和結構也較為明顯,數據分流工作難度中等;第三層次包含行動部分、醫務部門和消防部門,這一層次中的數據流不僅細化程度較高、私密性較強,而且數據的類型繁多、結構復雜,數據分流工作難度較大。

          根據以上分析不難看出,能夠對第三層次中的數據流提供精準、高效分流工作的大型警務數據處理系統數據分流平臺,一定能夠滿足第一、二層次中數據流對分流工作的需求。因此,大型警務數據處理系統要求所設計的數據分流平臺在擁有強大的數據分類和存儲性能的同時,也應具有較強的數據流控制能力和抵御網絡入侵能力。

          2 大型警務數據處理系統中的數據分流平臺設計

          2.1 數據分流平臺分流方案設計

          在大型警務數據處理系統中[2,4],數據分流平臺的工作實質是:依據合理的分流方案[5],將第1節中給出的三個層次數據流以低于100 Mb/s的通信速率,準確分配到大型警務數據處理系統的數據檢測平臺中。由此可知,分流方案直接決定了數據分流平臺的分流效果,是平臺的重點設計對象。

          所設計的數據分流平臺使用哈希算法中的哈希映射函數設計分流方案。在大型警務數據處理系統的三個數據流層次中,傳輸控制協議(Transmission Control Protocol,TCP)和用戶數據報協議(User Datagram Protocol,UDP)的數據類型占據了較大的比例。據不完全統計,TCP和UDP類型的數據占據總數據量的比例分別高達38%和42%。為此,平臺將使用哈希映射函數把三個層次數據流中的數據類型分為TCP流、UDP流和其他流,隨后將其依照由低到高的數據流層次分配到數據檢測平臺的相應位置。

          在哈希映射函數中,將大型警務處理系統中TCP流、UDP流和其他流分別設為,,,三者均為48階可編程函數,則有:

          式中:,分別表示TCP流、UDP流中的數據;上、下角標均代表數據階數;表示其他流中的數據。

          那么,、和的相互關系可表示為:

          2.2 分流處理器設計

          分流處理器是實現分流方案的媒介,也是所設計的大型警務數據處理系統數據分流平臺的核心設備,平臺選用的分流處理器是超低電壓版本(Ultra Low Voltage,ULV)處理器,平臺對大型警務數據處理系統中三個層次數據流的分流工作均將通過這一設備進行實現。

          ULV處理器是一種能耗極低、攜帶方便且具有超強抗入侵能力的多核處理器,其處理效率和運算精度均很高,并支持數據堆砌處理,適合進行復雜、海量的數據分流工作,圖2、圖3分別是ULV處理器的硬件結構和分流原理。

          由圖2、圖3可知,ULV處理器的硬件結構分為功能硬件和基礎硬件。功能硬件包括存儲器、顯示器和復雜可編程邏輯器件,基礎硬件包括物理層、網絡服務處理器和外設部件互連標準總線。上述硬件將依次對ULV處理器的硬件分流、軟件分流和協議分流進行實現。

          3 實驗結果分析

          在此將通過實驗對本文設計的大型警務數據處理系統數據分流平臺的分流速率、分流準確度和分流效果進行驗證,實驗現場如圖4所示。

          實驗在某公安機關的大型警務數據處理系統中依次安裝本文平臺、單片機數據分流平臺和嵌入式數據分流平臺,并對系統進行初始化,給予系統64 b,512 b和1 518 b三種數據流。實驗中,三個平臺的分流速率對比情況如表1所示。

          由表1可知,三個平臺在大型警務數據處理系統中進行64 b數據流的分流工作時,均具有較高的分流速率。但隨著數據流位數的增加,單片機數據分流平臺和嵌入式數據分流平臺的分流速率均出現了大幅度下降情況,而本文平臺在實驗中始K具有較高的分流速率。

          為了準確描述三個平臺的分流準確度,對大型警務數據處理系統中輸入和輸出的數據流數量進行了統計,二者數量越接近,被成功分流的數據流就越多,平臺的分流準確度就越高,如表2所示。

          由表2可明顯看出,在安裝本文平臺的大型警務數據處理系統中,系統輸出數據流和輸入數據流的數量最為接近。上述結果說明,本文平臺具有較高的分流準確度。

          數據分流平臺的分流效果取決于公安機關對平臺的使用好感度,為此,在實驗結束后對平臺使用者進行了問卷調查,并總結出使用者對三個平臺的使用好感度,如圖5所示。

          由圖5可知,使用者對本文平臺的使用好感度處于圖中最高位置,其范圍為[0.92,0.99]。使用者對單片機數據分流平臺和嵌入式數據分流平臺的使用好感度范圍分別為[0.80,0.90]和[0.77,0.90]。上述結果說明,本文平臺具有較好的分流效果。

          4 結 論

          為了合理分配數據流量、提升大型警務數據處理系統的處理能力,本文設計新型的大型警務數據處理系統數據分流平臺,為公安機關提供更為高效、精準的數據分流工作。本文平臺使用ULV處理器對大型警務數據處理系統的數據流進行硬件分流、軟件分流和協議分流。經實驗結果分析可知,本文平臺具有較高的分流速率和分流準確度,并且分流效果較好。

          參考文獻

          [1] 崔向前.論公安院校教師素養與高等警務人才人文素養培育[J].河南教育學院學報(哲學社會科學版),2014,33(6):42?45.

          [2] 姜明月.云計算平臺下的大數據分流系統的設計與優化[J].現代電子技術,2016,39(2):28?32.

          [3] 席兵,韓盈盈.GPRS網絡Gb/Gn接口數據過濾與分流的實現[J].廣東通信技術,2014,34(7):11?14.

          [4] 齊斐.數據交換在警務綜合信息系統中的應用[J].甘肅科技縱橫,2014,43(11):37?39.

          大數據經濟分析范文第3篇

          傳統經濟也可以是高科技的

          近幾十年來的信息技術變革,其本質是信息化,從技術效果上看是一個生產“數據”的過程,十多年前還被零零碎碎手書的數據,已被各種新工具不斷采集和存儲,各行各業或多或少都擁有著自己的數據資源。從自身累積的歷史數據中使用合適的分析方法,找到原本憑借行業內職業經驗與直覺找不到的“規律”,解決自身實際問題,這就是數據創新。有時,這種創新帶來的改變是“瑣碎”的,但卻優化了商業模式、提升了用戶體驗,甚至完善了企業經營模式與文化。

          這里特別需要指出的是,不放過任何盈利機會的零售業,早已是數據創新的主戰場。當前,商業流通結算行業的定價、銷售和支付正在發生變革。大數據驅動下的商品定價變革將是根本性的,是原有商品定價模式的一種逆反,非商家定價,而是由消費者定價。在銷售模式上,電子商務能否成為一種真正的銷售變革,這完全取決于C2B模式。未來商業流通領域的價值鏈原動力是消費者驅動,而非現有的制造驅動或設計驅動,大致有兩種:一是聚合需求形式,如反向團購;二是要約合作形式,如逆向拍賣等。從技術層面上說,都是基于交易數據創新的,需要更快捷地劃分、分析和鎖定消費者,轉而將這些小眾的微量需求來改進商品、促成銷售,將已有的定制開發逐漸從“大規模”轉成“個性化、多品種、小批量和快速反應”.在支付形式上,一種是將管理支付轉為管理數據;另一種是將支付貨幣轉為支付信用。

          大數據時代,傳統經濟想要有高科技含量,最關鍵的是不要做數據的“看守人”.目前被打車軟件“攪翻”的出租車行業,同樣能利用數據創新改變現狀,這是因為:出租車行業擁有的數據大多是軌跡線交通數據,這是一種能直接或間接反映駕駛者的主觀意愿和車輛行駛過程中的環境限制等情況的數據,具有運行時間長、在城市整體交通流量中占有量大的特點。分析和挖掘出租車這種城市典型移動對象的歷史軌跡數據中,找到本地區駕駛員偏好、乘客出行習慣或交通擁堵熱點,有助于直接了解人們的各種社會活動、間接把握城市動態性。因而,依據軌跡線交通數據創新能改變當前導航市場的“紅海”格局,使用實時交通路線推薦替代基于地圖數據的最短路徑推薦。

          兩種業態是一種競合關系

          什么是數據產業?從信息化過程中累積的數據資源中提取有用信息,即數據創新,將這些數據創新賦予商業模式,就是產業化,因而數據產業是信息產業的逆反、衍生與升級。應當看到,這種由大數據創新所驅動的產業化過程,是具有“提升其他產業利潤”特征的,除了能探索新的價值發現、創造與獲取方式以謀求本身發展外,還能幫助傳統產業突破瓶頸、升級轉型,是一種競合關系,而非一般觀點“新興科技催生的經濟業態與原有經濟業態存在競爭關系”.

          所以,數據產業培育圍繞傳統經濟升級轉型,依附傳統行業企業共生發展,實為上策。需要指出的是,為加速數據產業企業集聚形成產業集群、凸顯極化效應,設計數據產業發展模式同樣應考慮建立數據產業基地,但不能照搬傳統的“政府引導、市場選擇和企業主導”方式,而應是某種“新型”樣式,至少具有以下五方面特征:

          一是產業顯現凝聚力,圍繞某一領域或行業數據資源,實現資源、科技共享,數據產品生產專業分工明確,基地內企業做到競合協同,具有整體創新績效。二是資本、科技雙重驅使,由專業數據產業基金引導政府相關部門、多個大學與科研院所參與基地建設。三是“智慧”精準管理,在管理上將依靠數據創新實現精準化,充分體現“智慧”.四是多元化生態型,其實質是一種內嵌數據創新核心應用的城市CBD,具有充足的商業配套、齊備的文化設施和宜居的生態社區,能進行便利的商業活動、生產工作和生活娛樂。五是人才高地,能將各種人才結合在一起,調動其積極性、創造性。

          數據產業的競爭關乎國力

          數據產業競爭涵蓋了政治、經濟、軍事、文化等多個領域,從宏觀到微觀,從虛擬到實體,涉及航空、航天、海洋、電力、教育等生活的方方面面。

          根據對數據產業內涵和外延的不同理解,其概念有廣義和狹義之分。

          從狹義上來說,數據產業從技術效果上看主要是數據準備、數據挖掘和可視化,即對數據資源進行合理開發、對數據資產進行有效管理,直接商品化數據產品,涵蓋數字出版與文化業、電子圖書館和情報業、多媒體業、數字內容業、領域數據資源開發業、行業數據資源服務業等,當前已有的數據創新有網絡創作、數據營銷、推送服務、商品比價和疾病預控等。從廣義上來說,數據產業包括涉及狹義意義上的上下游關聯行業,依次具體是:數據采集、數據存儲、數據管理、數據處理、數據挖掘、數據分析、數據展示,以及數據產品評價和交易。

          大數據經濟分析范文第4篇

          理性選擇理論對行為主體“認知”問題的學術處理,從“經濟人”到“理性經濟人”并沒有顯著的變化。古典經濟學框架下的理性選擇理論以完全信息假設為前提,將行為主體(個人)界定為無本質差異和不涉及個體間行為互動,不受認知約束的單純追求自身福利的“經濟人”(約翰·伊特韋爾等,1996)。新古典經濟學的理性選擇理論將行為主體界定為“理性經濟人”,它同樣以完全信息假設為前提,研究了被古典經濟學忽略的選擇偏好,通過對“偏好的內在一致性”的解析,論證了個體能夠得知選擇結果的抽象認知(Von Neumann and Morgenstern,1947;Arrow and Debreu,1954)。這里所說的抽象認知,是指行為主體沒有經歷具體認知過程而直接關聯于效用函數的一種認知狀態,這種狀態在新古典理性選擇理論中的存在,表明“認知”是被作為外生變量處理的。

          現代經濟學的理性選擇理論開始嘗試將“認知”作為內生變量來研究。現代主流經濟學從人的有限計算能力、感知、意志、記憶和自控能力等方面研究了認知形成及其約束(Salvatore, 1999;Schandler,2006;Rubinstein,2007),認為認知是介于偏好與效用之間,從而在理論研究上處于不可逾越的位置,只有對認知進行研究,對偏好和效用的研究才能接近實際。現代非主流經濟學注重于運用認知心理學來研究人的認知形成及其約束(Kahneman and Tversky,1973,1974,1979;Smith,1994),它通過實驗揭示了一些反映認知心理進而影響選擇行為的情景,如確定性效應、錨定效應、從眾行為、框架依賴、信息存疊等,以論證傳統理論忽視認知分析而出現的理論與實際之間的系統性偏差。

          但是,經濟學理性選擇理論對認知的分析和研究,是在預先設定規則的建構理性框架內進行理論演繹和推理的,它們對認知的解釋,通常表現為一種規則遵循。例如,新古典理性選擇理論關注個體應怎樣符合理性(最大化)的選擇,而不是關注個體的實際選擇,它對認知的學術處理是從屬于效用最大化的(Harsanyi,1977)。現性選擇理論所關注的,或是在忽略認知的基礎上建立解釋和預測實際選擇的理性模型來說明實現效用最大化的條件,以闡釋個體如何選擇才符合理性(Edgeworth,1981);或是通過行為和心理實驗來解說實際選擇的條件配置,以揭示實際選擇的效用函數(Kahneman and Tversky,1973,1974,1979;Smith,1994),因而對認知的學術處理同樣是從屬于效用最大化的。基于選擇的結果是效用,而認知與偏好都內蘊著效用形成的原因,我們可以認為,經濟學在將個人追求效用最大化視為公理的同時,也在相當大的程度上表明理性選擇理論對效用函數的描述和論證,不是依據數據分析而是一種通過理論預設、判斷和推理得出的因果思維模式。

          因果思維模式在信息完全和不完全情況下的效應是不同的。在信息不完全狀態下,如果研究者以信息完全預設為分析前提,依據自己掌握的部分信息對問題研究做出因果邏輯判斷和推論,則其不一定能得到正確的認知。在信息完全狀態下,研究者不需要有預設的分析假設,也不需要依賴邏輯判斷和推論,而是可以通過數據高概率地獲取正確的認知。經濟學的信息完全假設對認知研究的影響是廣泛而深刻的。例如,新古典經濟學假設選擇者擁有完全信息,能夠實現效用最大化,它對偏好與認知以及認知與效用之間因果關系的邏輯處理,是通過可稱之為屬于該理論之亞層級預設的“給定條件約束”實現的(信息完全假設是第一層級預設)。在該理論中,偏好被規定為是一種處于二元化的非此即彼狀態,認知在“選擇者知曉選擇結果(效用)”這一亞層級預設下被跳越。很明顯,這種因果思維模式有助于使其建立精美的理性選擇理論體系,但由于沒有對認知階段作出分析,它很容易嚴重偏離實際。

          現代主流經濟學的理性選擇理論偏離現實的程度有所降低,原因在于開始重視認知的研究。半個多世紀以來的經濟理論研究文獻表明,現代主流經濟學的理性選擇理論正在做逐步放棄完全信息假設的努力,它對偏好與認知以及認知與效用之間因果關系的邏輯處理,是在質疑和批評新古典經濟學偏好穩定學說的基礎是進行的,該理論用不穩定偏好取代偏好的內在一致性,解說了認知的不確定性,以及不完全信息和心理活動變動等如何對認知形成約束,以此質疑和批評新古典經濟學的期望效用函數理論,并結合認知分析對個體選擇的效用期望展開了深入的討論。相對于新古典經濟學的理性選擇理論,雖然現代主流經濟學的理性選擇理論仍然是因果思維模式,但它有關偏好與認知以及認知與效用之因果鏈的分析銜接,明顯逼近了實際。

          現代非主流經濟學的理性選擇理論不僅徹底放棄了完全信息假設,而且徹底放棄了主流經濟學中隱性存在的屬于新古典理論的某些“給定條件約束”。具體地講,它對偏好與認知以及認知與效用之間因果關系的論證,不是基于純理論層次的邏輯分析,而是從實驗過程及其結果對這些因果關系做出解說。至于效用最大化,該理論則認為認知與效用最大化的關聯,并不像先前理論描述的那樣存在直接的因果關系。現代非主流理性選擇理論通過實驗得出一個試圖取代傳統效用函數的價值函數(Kahneman and Tversky,1979),該函數體現了一種以實驗為分析底蘊的不同于先前理論的因果思維模式,開啟了以實驗數據作為解析因果關聯的理論分析先河。但由于現代非主流理性選擇理論畢竟還是一種因果思維模式,因而同先前理論一樣,在理論建構上它仍然具有局限性。

          從理論與實踐的聯系看,經濟學理性選擇理論的因果思維模式之所以具有局限性,乃是因為它用于分析的信息是不完全和不精確,甚至有時不準確,以至于造成認知不正確和決策失誤。當研究者以不準確或不精確的信息來探尋因果關系時,極有可能致使認知出現偏差;而當認知出現偏差時,理論研究和實際操作就會出問題。誠然,因果思維模式本身并沒有錯,但問題在于,單純從現象形態或單純從結果所做出的理論判斷和推論,不足以讓研究者揭示真實的因果關系。人們對因果關系的理解過程伴隨著認知的形成過程,在非數據支持的因果思維模式存在局限性的情況下,經濟學家依據這種模式所構建的理性選擇理論,難以得到符合實際的認知理論。那么,在未來世界是什么影響和決定認知呢?人類認知有沒有可能達到準確化呢?我們把目光聚焦于大數據,或許能夠找到問題的答案。

          二 、運用大數據能獲得正確認知嗎?

          在迄今為止的經濟理論研究文獻中,經濟指標或行為指標所選用的樣本數據,不是互聯網和人工智能時代所言的大數據。大數據具有極大量、多維度和完備性等特征,極大量和完備性表明大數據有可能提供完全信息,多維度意味著信息可以通過大數據的相關性得到甄別和處理。廣而論之,人類的行為活動表現為一個龐大的數據堆積,個別行為所產生的數據只是這個龐大數據的元素形式。如果我們以人們的投資和消費活動作為考察對象,對大數據蘊含的因果關系以及由此得出的認知進行分析,那么,我們可認為投資和消費不僅在結果上會產生大數據,而且在運作過程中也會產生大數據。換言之,投資行為和消費行為在“結果”上顯示極大量數據的同時,也在“原因”上留下了極大量數據讓人們去追溯。因此,人類要取得因果關系的正確認知,離不開大數據,而在樣本數據基礎上經由判斷和推理得出的針對因果關系的認知,至少是不全面的,它不足以作為人們投資和消費選擇的科學依據。

          1、運用大數據分析因果關系的條件配置

          人類認知的形成離不開因果關系分析,但運用大數據來分析因果關系以求獲取正確的認知,必須具備以下條件配置:1、移動設備、物聯網、傳感器、社交媒體和定位系統等的覆蓋面要足夠大,以便能搜取到極大量和完備性的數據;2、需要探索對極大量(海量)數據的算法,能夠對大數據進行分類、整合、加工和處理;3、需要厘清和區別數據的不同維度及權重,以至于能夠運用大數據來甄別因果關系的內在機理。顯然,人類從兩百年前的工業革命到今天的信息革命,對數據的搜集、整合、加工和處理還不全然具備以上的配置條件,人類運用大數據來分析因果關系,還剛剛處于起步階段。

          聯系經濟學理論看問題,經濟學家分析投資行為和消費行為以及對其因果關系的研究,主要是在抽象理論分析基礎上運用歷史數據來完成的。其實,對投資行為和消費行為的研究,不能只是從結果反映的數據來考量,即不能只是局限于歷史數據分析,還需要從即時發生的數據,乃至于對未來推測的數據展開分析。這可以理解為是運用大數據思維來研究經濟問題的真諦。從大數據觀點看問題,投資和消費的因果關系應該是歷史數據流、現期數據流和未來數據流等三大部分構成的。經濟學實證分析注重的是歷史數據流,很少涉及現期數據流,從未考慮過未來數據流,因此,現有經濟理論文獻的實證分析以及建立其上的規范分析,很難全面反映或揭示經濟活動的真實因果關系。

          2、未來幾十年大數據揭示因果關系的可行性

          在互聯網悄然改變人類經濟、政治和文化生活的當今社會,互聯網的發展歷史可理解為經歷了三個階段:從前期“人與信息對話”的1.0版本,經由中期“信息與信息對話”的2.0版本,近期正走向“信息與數字對話”的3.0版本,互聯網版本的不斷升級是大數據運用范圍不斷擴大的結果,這是問題的一方面。另一方面,隨著互聯網、移動互聯網以及物聯網技術等的廣泛運用,人類各種活動的數據將極大量地被搜集,人們行為的因果關系也會以迂回方式通過數字關系顯露出來。特別地,若互聯網在將來發展成“數字與數字對話”的4.0版本,這樣的發展方向則明顯預示著數字關系將取代因果關系,或者說,數據思維將取代因果思維,人類將全面進入大數據和人工智能時代。

          如果我們把互聯網版本的不斷升級以及大數據運用范圍的無邊界擴大,看成是未來幾十年運用大數據來分析因果關系的重要配置條件,那么,如何對大數據的整合、分類、加工和處理,以及如何通過大數據的完備性和相關性來獲取因果關系的真實信息,則是另外兩個重要的配置條件。工業革命后的人類科學文明對因果關系揭示的主要方法和路徑,是先利用掌握的信息再通過抽象思維建立復雜模型,然后在實驗室通過試錯法來設置能反映因果關系的參數使模型具有操作性;但這種方法和路徑涉及的數據,是樣本數據而不是大數據。在大數據和人工智能時代,智慧大腦是使用“數據驅動法”來設置模型和參數的(吳軍,2016)。具體地講,是用云計算集約化及其運算模式來整合、分類、加工和處理大數據,通過數據之間的相關性來探尋在樣本數據基礎上無法判斷和推論的信息;同時,對模型的處理,不是建立復雜模型而是建立許多簡單模型,并通過數以萬計的計算機服務器對模型進行優化和設定相應的參數,以至于完完全全地運用大數據來揭示因果關系。

          有必要說明的是,數據驅動法使用的數據不僅包括“行為數據流”,而且在某些特定場景中,還包括“想法數據流”;前者是指歷史數據和當前發生的數據,后者是指從已知數據的相關性所推測的未來數據。社會物理學認為,人們實際行為與“想法流”之間有著可以通過大數據分析而得到的可靠數量關系,這種關系會通過互聯網成為一種改變人們選擇行為的重要因素(阿萊克斯?彭特蘭,2015)。誠然,在未來幾十年,數據驅動法是否能成功地成為解析因果關系的有效方法,尚有待于大數據運用的實踐,特別是有待于它在人工智能運用上之成效的檢驗。不過,數據驅動法作為解析因果關系的一種重要方法,無疑是智慧大腦的人機結合在大數據思維上的重要突破,它至少在如何展開大數據思維上打開了解析因果關系的窗口。

          3、運用大數據分析因果關系所獲取的認知,包括對歷史數據分析的歷史認知,對現期數據分析的現期認知,以及推測未來數據而形成的未來認知

          經濟學家運用大數據來研究經濟現象的因果關系,對經濟現象原因和結果關聯的解讀,只有以極大量、多維度和完備性的數據為依據,才是大數據意義上的思維。大數據思維較之于傳統邏輯思維,最顯著的特征是它可以通過對不同維度數據之間相關性的分析,得到比傳統邏輯思維要精準得多的信息。這里所說的精準信息,是指由大數據規定且不夾帶任何主觀判斷和推測的信息。例如,經濟學家要得到特定時期某類(種)產品的投資和消費的認知,其大數據思維過程如下:1、搜集、整理和分類前期該類產品的投資和消費的極大量和完備性的數據;2、加工和處理業已掌握的數據,并在結合利潤收益率、投資回收期、收入水平和物價水平等的基礎上解析這些不同緯度的數據;3、根據不同緯度數據的相關性,獲取該類產品投資和消費的精準信息,從而得出如何應對該產品投資和消費的認知。當然,這只是在梗概層面上對運用大數據分析而獲取認知的解說,現實情況要復雜得多。

          然則,現有的關于投資和消費的模型分析以及建立其上的實證分析,主要是以非大數據的歷史數據作為分析藍本的,因此嚴格來講,經濟學對投資和消費的因果關系分析所形成的認知,屬于典型的對歷史數據分析所形成的歷史認知。眾所周知,自經濟理論注重實證分析以來,一直存在著如何“從事后評估走向事前決策”問題的討論。由于經濟學家對投資和消費展開實證分析所使用的數據,幾乎完全局限于(樣本)歷史數據,這便導致對投資和消費的因果關系分析對現期認知和未來認知的缺位,它不能解決“從事后評估走向事前決策”問題。國內一些著名的成功人士指責經濟學家不能解決實際問題。在我們看來,不熟悉大數據的成功人士的這種指責是可以理解的,但深諳大數據的成功人士帶有調侃風味的指責就不公允了。經濟學家要在理論上立竿見影地解決實際問題,必須能得到現期數據和未來數據(而不僅僅是歷史數據),這需要計算機學家的配合和支持,否則便不能在精準信息的基礎上分析投資和消費的因果關系,但經濟學家又不是計算機學家,因此,經濟理論的科學化需要大數據挖掘、搜集、整合、分類、加工、處理、模型和參數設置、云計算等技術及其手段的充分發展。

          歷史數據是存量,目前計算機對其處理的能力已綽綽有余,難點是在于模型和參數設置;現期數據是無規則而難以把控的流量,對這種流量數據的挖掘、搜集、整合、分類、加工和處理,取決于移動設備、物聯網、傳感器、社交媒體和定位系統的覆蓋面,以及云計算的集約化的運算能力;未來數據是一種展望流量,它依賴于對歷史數據和現期數據的把握而通過大數據思維來推測。如果說經濟學家對投資和消費的因果分析以及由此產生的認知,主要取決于歷史數據和現期數據,那么,解決“從事后評估走向事前決策”問題,既要依賴于歷史數據和現期數據,也離不開未來數據。也就是說,在“歷史數據 + 現期數據 + 未來數據 = 行為數據流 + 想法數據流”的世界中,經濟學家要解決實際問題,其理論思維和分析手段都受制于大數據思維,經濟學家運用大數據分析因果關系而得到正確認知的前提條件,是必須利用歷史數據、現期數據和未來數據以獲取精準信息。

          就人類認知形成的解說而論,現有的社會科學理論是以信息的搜集、整理、加工、處理、判斷和推論,作為分析路徑來解釋認知形成的。當認知被解釋成通過數據的挖掘、搜集、整合、分類、加工和處理而形成,對認知形成的解釋,就取得了大數據思維的形式。大數據思維是排斥判斷和推論的,它否定一切非數據信息,認為產生精準信息的唯一渠道是大數據。在現有的社會科學理論中,經濟學的理性選擇理論對人類認知的分析和研究具有極強代表性,經濟學家對投資選擇和消費選擇的解釋,便是理性選擇理論的代表性運用。基于人類認知形成和變動的一般框架在很大程度上與理性選擇理論有關動機、偏好、選擇和效用等的分析結構有很強的關聯,我們可以結合這個理論來研究大數據思維下人們對經濟、政治、文化和思想意識形態等的認知變動。事實上,經濟學關于動機、偏好、選擇和效用等關聯于認知的分析,存在著一種可以通過對大數據思維的深入研究而得以拓展的分析空間,那就是大數據思維會導致人類認知的變動。

          三 、大數據思維之于認知變動的經濟學分析

          我們研究這個專題之前有必要指出這樣一個基本事實:大數據思維可以改變人的認知路徑,可以改變不同階段或不同場景下的認知形成過程,但改變不了影響認知的動機、偏好、認知和效用等的性質規定。如前所述,傳統經濟學理性選擇理論在完全信息假設下,認為個體選擇的動機和偏好以追求最大化為軸心,傳統理論的這個真知卓見從未被后期理論質疑;但由于傳統理論的完全信息假設存在著“知曉選擇結果”的邏輯推論,因而認知在傳統理論中是黑箱,也就是說,傳統理論無所謂認知的形成和變動問題。現代主流經濟學尤其是現代非主流經濟學在不完全信息假設下開始重視對認知的研究,在他們看來,認知形成過程是從理智思考到信息加工和處理的過程;他們特別注重從心理因素來考察認知變動(Schandler,2006;Rubinstein,2007;),注重通過實驗且運用一些數據來分析和研究認知(Kahneman and Tversky,1974,1979;Smith,1994),但這些分析和研究不是對極大量、多維度和完備性的數據分析。因此,經濟學理性選擇理論發展到今天,還沒有進入對大數據思維改變人類認知問題的討論。

          1、經濟學家能否對選擇動機、偏好和效用期望等進行數據分析,決定其認知分析是否具有大數據思維的基礎

          經濟學關于人類選擇動機、偏好和效用期望等反映人們追求最大化的基本性質分析,以及從這三大要素與認知關聯出發,從不同層面或角度對認知形成的分析,主要體現在理性選擇理論中。但這方面顯而易見的缺憾,是不能對動機、偏好、認知和效用等展開數據分析。現實的情況是,在大數據、互聯網、人工智能和機器學習等沒有問世或沒有發展到一定水平以前,經濟學家對這些要素只能做抽象的模型分析。經濟學理性選擇理論要跳出抽象模型分析,必須選擇具有解釋義或指示義的指標對動機、偏好和效用期望等進行數據分類分析,以便給認知的數據分析提供基礎,顯然,這會涉及抽象行為模型的具體化和參數設計的具體化,需要得到大數據和云計算集約化運算模式的支持(吳軍,2016)。作為對未來大數據發展及其運用的一種展望,如果經濟學家能夠圍繞最大化這一性質規定來尋覓動機、偏好和效用期望等的特征值,并以之來設置參數和模型,則有可能對直接或間接關聯于動機、偏好和效用期望的大數據進行分析,從而為認知分析提供基礎。

          大數據的極大量和完備性有可能消除信息不完全,這給認知的數據分析提供可行性。誠然,選擇動機、偏好和效用期望等只是反映人們選擇的現期意愿和未來愿景,其極強的抽象性決定這樣的數據分析還有很大困難,但由于選擇動機、偏好和效用期望等會通過實際行為迂回地反映出來,因而我們可以找到解決這一困難的路徑。例如,人們在準備投資和消費以前,一般有各種調研活動,即對影響投資和消費的信息進行搜集、整合、分類、加工和處理,值得注意的是,這些調研活動會在移動設備、物聯網、傳感器、定位系統和社交媒體中留下大數據的痕跡,這些數據痕跡會從某個層面或某個角度顯現出投資者和消費者選擇動機、偏好和效用期望的傾向或意愿。

          智慧大腦依據什么樣的標準來數據化這些傾向或意愿,從而對選擇動機、偏好和效用期望以及進一步對認知展開數據分析呢?這里所說的標準,是指通過云計算和機器學習等對人們實際行為的數字和非數字信息進行相關性分類,把反映選擇動機、偏好和效用期望的具有共性特征的傾向或意愿進行整理和歸納,以確定符合選擇動機、偏好和效用期望之實際的參數。如果智慧大腦能夠利用大數據、互聯網、人工智能和機器學習等完成以上工作,根據認知是偏好與效用的中介這個現實,智慧大腦便可以對認知進行大數據分析。如果經濟學家能夠利用智慧大腦提供的大數據分析成果,經濟學理性選擇理論將會隨著信息不完全假設前提變為信息完全假設前提,選擇動機、偏好和效用期望的抽象分析變為數據分析,認知的抽象框定或心理分析變為數據分析而發生重大變化。以上的分析性討論,是我們理解大數據思維改變人類認知之經濟學解釋的最重要的分析基點。

          2、運用大數據思維進行偏好分析會改變認知形成的路徑,使經濟學理性選擇理論接近現實

          現有的理性選擇理論有關動機和偏好的分析和研究(這里集中于偏好的討論),主要集中于偏好如何界定和形成以及如何隨認知和效用期望調整而發生變動等方面,并且這些分析和研究是采用“個體行為”為基本分析單元的個體主義方法論。在大數據時代,雖然個人、廠商和政府的選擇偏好仍然是追求最大化,個體選擇行為仍然是整個社會選擇的基礎,個體主義方法論仍然在一定程度和范圍內存在合理性,但互聯網平臺改變了選擇偏好的形成過程和機理。具體地說,現今人們的選擇偏好已不是經濟學理性選擇理論意義上的選擇偏好,而更多地表現為是一種以最大化為底蘊的具有趨同化特征的偏好。例如,某種產品投資或消費的介紹會和研討會,對某種產品投資或消費的點贊和評價,中央政府和地方政府關于某種產品投資或消費的統計數據,專家和新聞媒體對某種產品投資或消費的評說和報道,等等,都會成為人們選擇偏好出現一致性的催化劑。因此,經濟學理性選擇理論跳出抽象模型分析,已經在偏好分析上具備了大數據思維的條件和基礎。

          智慧大腦與非智慧大腦的區別,在于能對人們消費和投資的偏好展開大數據分析,能通過大數據的搜集、整合、加工和處理,運用云計算得到來自不同維度數據之間相關性的精準信息,以至于能獲取建立在大數據分析基礎之上的認知。從理論上來講,偏好會影響認知但不能決定認知。就偏好影響認知而論,它主要是通過利益訴求、情感驅動、身心體驗和時尚追求等對認知產生誘導或牽引作用。但在非大數據時代,這些誘導或牽引作用無法數據化,于是經濟學家對偏好影響認知的研究便只能以抽象模型來描述。大數據思維對偏好影響認知的處理,是使用以許多簡單而相對具體的模型取代高度抽象的單一模型,運用數據驅動法來設置參數和模型,對利益訴求、情感驅動、身心體驗和時尚追求等偏好特征進行解讀,這樣便實現了很多非數據化信息的數據化,從而使以偏好為基礎的在理論上對認知變動的研究有了新的分析路徑。

          阿里巴巴公司正在奮力打造的線上和線下相結合的“新零售”模式,是以大數據分析和運用的阿里云平臺為背景和依托的。這個模式試圖通過充分搜集、整合、分類、加工和處理已發生的歷史消費數據,正在發生的現期消費數據和有可能發生的未來消費數據,捕捉人們消費偏好的動態變化,以期構建符合大數據思維的全新商業業態。撇開新零售模式在運營過程中的諸如數據處理、機器學習和人工智能運用等技術問題,僅以該模式對人們消費行為的系統梳理、分級整合及相關處理來說,它無疑會在引領人們消費行為的同時促動消費趨同化偏好的形成。尤其值得關注和研究的是,隨著該模式運營所積累的數據量全然達到大數據的標準,人們的消費認知將會在消費趨同化偏好的導引下發生變化,這種情形不僅會發生在消費領域,投資領域也會出現投資趨同化偏好。很明顯,趨同化偏好具有共性特征,它在很大程度上是對個體選擇偏好的否定,對于這種偏好所導致的認知應該怎樣理解呢?這個問題需要進一步研究。

          3、在大數據時代,趨同化偏好會改變認知形成過程,消費者和投資者的認知不再是自己獨立思考和理智判斷的產物,而是在趨同化偏好驅動下對智慧大腦認知的認同

          廠商的投資選擇偏好是追求利潤最大化,這一永恒的事實不妨礙或排斥投資趨同化偏好的形成。一般來講,大數據發展初期的互聯網平臺對選擇趨同化偏好形成的作用力,在消費領域要比投資領域來得更加直接和迅速。究其原因,是兩大領域的機會成本和風險程度不同的緣故。但隨著大數據、云計算和機器學習等的充分發展,智慧大腦有可能對歷史、現期和未來的大量投資數據進行搜集、整合、加工和處理,有可能通過云計算集約化模式來分析不同維度數據之間相關性而獲得精準信息,同時,智慧大腦會根據市場“行為數據流”折射出“想法數據流”而產生預見能力,尋覓和遴選出高收益的投資方向和投資標的。若此,智慧大腦投資選擇的勝算率(利潤率)將會大大提高,廠商會效尤智慧大腦進行投資選擇,從而出現投資趨同化偏好。經濟學曾經對諸如“羊群效應、蝴蝶效應、從眾行為、信息重疊”等現象有過許多研究(羅伯特?希勒,2001),但嚴格來講,這些研究是描述性的,不是聯系偏好和認知等的分析性研究。

          消費和投資的趨同化偏好主要是針對消費者和投資者的選擇行為方式而言的,它不改變消費和投資選擇偏好的追求效用最大化的性質規定,這是問題的一方面。另一方面,在將來大數據充分發展的鼎盛時期,消費和投資的趨同化偏好會改變認知形成過程,這可以從兩種意義上來理解:1、從原先通過對信息進行搜集、整合、分類、加工和處理來獲取認知,轉變為通過對數據的搜集、整合、分類、加工和處理來獲取認知;2、消費者和投資者的認知不再是自己獨立思考和理智判斷的產物,而是在趨同化偏好的驅動下認同智慧大腦的認知。關于第一點,大數據思維的認知之所以會取代獨立思考和理智判斷的認知,乃是因為它能夠運用云計算集約化模式將消費和投資的歷史數據、現期數據甚至未來數據進行分類處理和相關性分析,能夠運用數以萬計的計算機服務器對特定事物的因果關系展開深度機器學習,從而通過分類和歸納不同維度數據而得到精準信息(精準醫療就是基于此原理)。人類對因果關系探索的手段和路徑發生變化,認知的形成過程及其機理就會發生變化。

          關于第二點,消費者和投資者在未來放棄對信息的搜集、整合、分類、加工和處理,認同和效尤智慧大腦的認知來進行選擇,這可理解為是他們進行效用比較(投入與收益)時的“幡然悔悟”。尤瓦爾?赫拉利(2017)有關一切有機和無機實體都可以運用算法來解構的前景預期,(吳軍,2016)關于未來制造業、農業、醫療、體育、律師業甚至新聞出版業都將由大數據統治的觀點,凱文?凱利(2014)以大數據和人工智能為分析底蘊對新經濟十大重要準則的論述,均認為具有大數據思維且不作出主觀判斷的智慧大腦將是未來世界的操控者,而Master和AlphaGo戰勝世界頂級圍棋高手的實踐,則顯露了人工智能完全有可能戰勝人腦的端倪。現實中的普通消費者和投資者通常只是依據有限或不準確的信息進行消費和選擇,經濟學家也只是根據有限或不準確的信息進行因果關系分析而得出認知,因此,相對于智慧大腦的選擇效用,消費者和投資者是相形見絀,經濟學家的理論見解和政策主張往往不吻合實際。

          智慧大腦是運用大數據思維而超越一般智人大腦的大腦。不過,從性質上來講,極少數擁有智慧大腦的人通過對數據的搜集、整合、分類、加工和處理所得到的認知,仍然屬于人的認知。需要強調指出的是,這種認知不同于經濟學理論及其他社會科學理論所闡述和論證的認知,它是在大數據思維驅動下的人類認知。對于這種新型認知的理解,如果我們結合經濟學理性選擇理論對其展開解說,則有著基礎理論的分析價值。

          4、在未來,智慧大腦的認知將引領非智慧大腦的認知,其結果是導致認知趨同化

          熟悉經濟學理性選擇理論的學者知道,無論經濟學家是從信息的搜集、整合、分類、加工和處理獲取認知,還是通過心理分析或行為實驗獲取認知,他們都是在不完全信息或有限理性約束下進行的,這不僅存在著以不精準信息推論認知的問題,而且存在認知形成過程的主觀判斷問題。智慧大腦運用大數據思維所形成的認知的最大特點,是在接近完全信息基礎上獲取認知的,并且不夾帶任何主觀判斷。現代未來學家曾分別從不同角度和層面對大數據、互聯網和人工智能展開了許多討論,他們的共同見解是認為大數據的極大量、多維度和完備性將有可能解決信息不完全問題(包含信息不對稱),并且能夠給人類選擇提供精準信息。倘若如此,人類的認知問題便完全成為智慧大腦對數據的搜集、整合、分類、加工和處理問題,一旦人類可以通過大數據思維獲取精準信息和完全信息,經濟學理性選擇理論將會在根基上被顛覆。

          智慧大腦只有極少數人才具備,絕大部分人(包括智人)都是非智慧大腦。在未來世界,智慧大腦將引領非智慧大腦進行選擇。這一引領過程是由前后相繼的兩個階段構成:一是智慧大腦運用大數據對偏好進行分析,通過互聯網將偏好傳送給具有從眾心理和從眾行為傾向的非智慧大腦,形成非智慧大腦的趨同化偏好;另一是智慧大腦運用大數據分析獲取認知,同樣是通過互聯網讓非智慧大腦效尤智慧大腦的認知,形成趨同化認知,從而使非智慧大腦以智慧大腦的認知為認知來選擇。這些情形表明,未來人類智慧大腦將決定非智慧大腦的偏好和認知,進一步說,則是智慧大腦將影響非智慧大腦的選擇行為。這里有一個極其重要問題須討論:對絕大部分非智慧大腦而言,他們在選擇過程中是否還存在認知?事實上,無論是趨同化偏好還是趨同化認知,非智慧大腦的偏好和認知并沒有徹底消失,只是形成的路徑和內容發生了變化。關于這個問題的討論,聯系經濟學的認知理論進行比較分析,或許會有更深的理解。

          如前所述,傳統經濟學以完全信息為假設前提,將認知作為理性選擇模型的外生變量,“認知”是被理論分析跳越的。現代經濟學以不完全信息為假設前提,在理性選擇模型中,努力通過心理和實驗分析把認知作為內生變量,易言之,“認知”被解釋為個體對信息進行搜集、整合、分類、加工和處理的結果,顯然,以上分析在分析對象、分析方法和分析路徑上,是與大數據思維不同的。現代經濟學理性選擇理論所分析的個體,是通過邏輯推論所抽象出來的蕓蕓眾生;雖然智慧大腦也可以看成是個體,但人數極少,是具有大數據思維之共同特征的個體。現代經濟學理性選擇理論是借助于偏好分析來研究認知的,雖然認知已在一定程度上被視為內生變量,但分析方法和路徑仍然是邏輯判斷或推論為主;大數據思維對認知分析將會采用的方法和路徑,是搜集、整合、分類、加工和處理數據,試圖從極大量、多維度和完備性的數據中獲取精準信息以得出認知。因此,盡管認知出現了趨同化,人類在大數據思維下仍然存在認知,只不過是非智慧大腦放棄自己的認知而統一于智慧大腦的認知罷了。

          總之,偏好和認知的趨同化顯示了大數據思維的魅力,這種魅力根植于大數據能夠經由智慧大腦而產生精準信息。其實,智慧大腦如何設置參數和模型,如何運用云計算集約化模式,如何利用互聯網以及尋覓廣泛使用人工智能的方法和途徑等,主要是計算機運用層面上的技術問題。我們研究大數據思維下人類認知變動需要重點關注的,是非智慧大腦究竟還有沒有認知,其效用期望會呈現什么樣的格局?既然非智慧大腦只是沒有獨立認知而不是完全跳越了認知,那么非智慧大腦便存在著效用期望,關于這種效用期望,我們可以聯系效用函數來解說。

          四 、認知結構一元化與效用期望變動的新解說

          經濟理論對選擇行為與效用期望之間動態關聯所建立的基本分析框架,展現出一幅“偏好認知選擇效用期望”的圖景。各大經濟學流派的理性選擇理論對這幅圖景中的 “”有不同的解說和取舍(前文有所涉及),概括來說,或側重于分析這些箭頭前后要素之間的相互關聯,或側重于分析這些箭頭前后要素之間的影響和決定作用。但就人們選擇動機和目的與效用之間的關聯而論,幾乎所有理論都不懷疑“追求自身利益最大化”的公理性,于是,“最大化”在成為效用函數核心變量的同時,也在一定程度上被作為理性選擇的判斷標準。以上圖景的邏輯分析鏈是建立在信息不完全分析假設上的,各大經濟學流派的理性選擇理論對這條邏輯分析鏈各環節的不同解說所產生的理論分歧,可歸結為是在信息不完全假設分析框架內的分歧。值得學術界關注的是,當大數據在未來有可能提供完全信息時,這些分歧將會讓位于新的理論探討。

          經濟學家對效用函數的研究是與認知分析緊密相聯的。但無論是傳統經濟理論還是現代經濟理論,他們對效用函數以及最大化問題的研究存在著共性,即這些研究都是建立在抽象的認知結構一元化基礎上的。具體地說,傳統經濟理論在完全信息假設上認為,選擇者可以得到“獲悉選擇結果的認知”,從而主張用“最大化”來描述選擇者的效用函數。現代主流和非主流經濟理論在不完全信息假設上認為,選擇者受有限理性約束不可能得到“獲悉選擇結果的認知”,從而主張不可用“最大化”來描述選擇者的效用函數。這里所說的抽象認知結構一元化,是指不是以具體的認知主體作為分析對象,而是把整個人類描述為一個同一的抽象主體,讓“最大化”問題成為效用函數的核心問題。在大數據思維的未來世界,隨著信息有可能出現完全化,“最大化”問題將會成為不是問題的問題。

          誠然,智慧大腦對大數據進行搜集、整合、分類、加工和處理,并通過云計算、機器學習乃至于根據人工智能實踐來選擇參數和設置模型,仍然沒有越出追求自身利益最大化這一效用函數的性質規定,但由于智慧大腦的認知形成過程是建立在具有極大量、多維度和完備性的大數據基礎之上的,大數據能夠提供完全信息的特點有可能會讓智慧大腦取得效用最大化。人類絕大部分選擇者是非智慧大腦者,從科學意義上來講,大數據對他們可謂是長期的黑箱,而他們依據自己認知所做出的選擇又不可能實現效用最大化,于是,非智慧大腦者將以智慧大腦者的認知作為自己認知而做出選擇,這便形成了大數據時代實際意義上的一元化認知結構。如果說我們劃分智慧大腦和非智慧大腦是對人類選擇主體的一種新界定;那么,我們揭示這兩大選擇主體實際意義上的一元化認知結構,則是對大數據時代人類認知問題的一種新解說。

          大數據背景下人類實際意義上的認知結構一元化,將是未來發展的一種趨勢,相對于經濟理論抽象意義上的認知結構一元化,它容易把握和理解。但它在將來能否成為一種固定化趨勢,取決于智慧大腦在經濟、政治、文化和思想意識形態等領域進行選擇時獲得的效用函數值。對于該效用函數值的預期,大數據思維下的智慧大腦是具備這種能力的。從經濟理論分析看,對效用函數值的討論,將涉及內蘊且展示效用函數的效用期望問題的討論。傳統經濟學的期望效用函數理論,是一種運用數學模型論證選擇者能夠實現最大化的理性選擇理論((Von Neumann and Morgenstern,1947;Arrow and Debreu,1954),現代非主流經濟學是在分析風險厭惡和風險偏好的基礎上,用一條S型的價值(函數)曲線取代傳統的效用函數,并通過相對財富變動對選擇者感受的分析,解析了選擇者的效用期望會不斷發生調整的情形(Kahneman and Tversky,1979)。那么,大數據時代選擇者的效用期望會發生怎樣變動呢?

          人類社會發展的歷史表明,人的主觀期望與實際選擇結果之間會發生經常性偏離。選擇者的效用期望能否實現最大化,一是取決于選擇者能否得到完全信息,另一是取決于選擇者認知過程的科學化。事實上,現代經濟學對傳統經濟學以最大化為核心的效用函數的質疑和批評,主要是圍繞信息不完全和忽略認知過程展開的。大數據時代存在著提供完全信息的可能性,而智慧大腦利用互聯網和運用云計算、機器學習和人工智能等手段,正在實現著認知過程的科學化,這便提出了經濟學必須回答的兩大問題:1、大數據思維下的人類選擇是否可以實現最大化,2、大數據思維下選擇者的效用期望會不會發生調整。這是現代經濟學沒有提及的兩大問題,但當我們分別從智慧大腦和非智慧大腦來討論這兩大問題時,結論或許會讓篤信經濟學經典理論的學者大跌眼鏡。

          在未來世界,隨著互聯網平臺的日新月異以及移動設備、物聯網、傳感器、社交媒體和定位系統等搜集大數據手段的覆蓋面的日益擴大,大數據的極大量、多維度和完備性給人類選擇提供了完全信息的基礎。智慧大腦在云計算、機器學習和人工智能等的支持下,以數據分析為基礎的認知過程也越來越科學化,于是,智慧大腦便可以知曉選擇過程的結果,有可能實現最大化,這說明智慧大腦不存在效用期望的調整問題。另一方面,非智慧大腦以智慧大腦的認知為自己的認知,其效用期望完全依附于智慧大腦的效用期望。具體地說,非智慧大腦不對數據進行搜集、整合、分類、加工和處理,跳越了認知過程,同樣不存在效用期望的調整問題。非智慧大腦效用期望完全依附于智慧大腦效用期望的情形,或者說,非智慧大腦以智慧大腦效用期望為自己效用期望的情形,統一于智慧大腦與非智慧大腦的認知結構一元化。如果要追溯非智慧大腦效用期望的變動,那就是從原先屬于自己的效用期望轉變成了智慧大腦的效用期望。

          智慧大腦有可能實現最大化,以及不存在效用期望調整是一回事,但智慧大腦能否在所建模型中給定效用期望值卻是另一回事。效用期望作為一種主觀預期或判斷,它不會在互聯網上留下可供大數據分析的歷史數據流、現期數據流和未來數據流,也就是說,不會在互聯網上留下可供大數據分析的行為數據流和想法數據流,這在決定智慧大腦難以跟蹤、模擬和推論效用期望值的同時,也給非智慧大腦放棄認知而效尤智慧大腦提供了某種聊以。推崇人工智能可以替代人腦的學者,好用Master和AlphaGo戰勝世界頂級圍棋高手的事實作為這種替代的立論依據,但無論我們怎樣在大數據分析、機器學習和人工智能運用等方面進行深度挖掘,也找不到智慧大腦能在所建模型中給定效用期望值的科學依據。智慧大腦不能確定效用期望值,也就規定了非智慧大腦不能確定效用期望值。這又提出了一個在理論上有必要回答的問題:非智慧大腦還有沒有效用期望?

          在經濟社會,智慧大腦和非智慧大腦的投資和消費選擇的效用期望都是追求最大化,這一點是永恒的。但問題在于,非智慧大腦以智慧大腦的認知為自己認知,以智慧大腦的選擇作為自己選擇的情形,會使自己的效用期望完全停留在期望智慧大腦選擇結果的形式上,這可以解釋為大數據時代非智慧大腦的效用期望的一種變動。但對于這樣的效用期望的理解,與其說它是一種效用期望,倒不如說它是一種效用期待。社會經濟的精英是人數極少的智慧大腦群體,但推動投資和消費的是占人口絕大多數的非智慧大腦群體。因此,非智慧大腦群體的偏好、認知、選擇和效用期望,應該是理性選擇理論研究的重點。關于這一研究重點的邏輯和現實的分析線索,是大數據思維趨同化偏好趨同化認知認知結構一元化最大化效用期望。不過,這條分析線索包含著許多本文或有所涉及或尚未涉及的交叉性內容,它需要我們在繼續研究大數據思維改變人類認知這一理論專題時,做出進一步深入的探討。

          大數據經濟分析范文第5篇

          關鍵詞:巨大子宮肌瘤;腹腔鏡;子宮肌瘤剔除術

          Clinical Analysis of laparoscopic myomectomy for huge uterine myoma

          Ren Ren

          【Abstract】Objective:To explore the feasibility and clinical value of laparoscopic myomectomy for huge uterine myoma.Methods:45 cases of huge uterine myoma from January 2009 to December 2012 were as the therapeutic group.41 cases of huge uterine myoma from January 2007 to December 2008 were as the control group.The therapeutic group received laparoscopic myomectomy.The control group received abdominal myomectomy.To compare the clinical discharge and hospitalization in the therapeutic group was less than the contral group.Results:The difference was statistically significan.The difference was not statistically significan about the incidence rate of abdominal incision bleeding in 2 groups.The incedence rate of incision infection in the therapeutic group was less than the contral group.The difference was statistically significan.Conclusion:Laparoscopic uterine myomectomy was feasible and safe if we full assessed of the risk of intraoperative,mastered the appropriate indications and grasped the intraoperative key.

          【Key words】huge uterine fibroids; laparoscopic; myomectomy

          【中圖分類號】R737.33 【文獻標識碼】B 【文章編號】1674-7526(2012)12-0006-02

          子宮肌瘤是一種最為常見的女性生殖器官良性腫瘤,臨床對癥狀明顯的患者多采用的以子宮切除術為主的治療方式。但是隨著生活品質的提高、保持身體的完整性、保留生育功能,提高到首位。隨著現代腹腔鏡技術的發展,腹腔鏡下子宮肌瘤剔除術就成為了理想的主要術式[1]。但是對于腫瘤直徑太大,子宮大于12孕周的,手術野的顯露比較困難,手術難度及風險偏大,多以開腹手術為主[2]。隨著腹腔鏡設備的更新、現代腹腔鏡技術水平的提高,腹腔鏡手術適應證也不斷拓寬,對于巨大子宮肌瘤行腹腔鏡切除成為可能。為探討腹腔鏡巨大子宮肌瘤剔除術的技術特點,對我院45例巨大子宮肌瘤,直徑8~13cm,行腹腔鏡子宮肌瘤剔除術,臨床療效滿意,報告如下。

          1 資料與方法

          1.1 一般資料:以我院婦產科2009年1月~2012年12月收治的子宮大肌瘤患者45例為治療組,年齡27~50歲,平均35.67±7.78歲。其中單發肌瘤17例,多發肌瘤28例;漿膜下肌瘤15例,肌壁間肌瘤30例。以2007年1月~2008年12月收治的子宮大肌瘤患者41例為對照組,年齡26~52歲,平均3734±8.27歲。其中單發肌瘤19例,多發肌瘤21例;漿膜下肌瘤13例,肌壁間肌瘤28例。所有患者均由盆腔彩超等檢查明確為子宮肌瘤,術前檢查沒有手術禁忌癥,彩超或CT明確至少有1個肌瘤的直徑為8~14cm,排除子宮癌性病變。2組患者,年齡、肌瘤類型方面,差異沒有統計學意義,具有可比性。

          1.2 手術方法:

          (1)治療組:靜脈復合麻醉下,取膀胱截石位,在臍孔部或臍孔上方1~4cm處穿刺進腹,置入腹腔鏡,調整頭低足高位后探查腹腔情況。然后在左右髂前上棘與臍連線中外1/3處,置入第2、3個操作孔,用垂體后葉素6~12u加20ml生理鹽水稀釋后,注入子宮肌瘤包膜及基底部。根據肌瘤位置選擇切口大小及方向。用單級電凝避開血管切開肌瘤包膜,深達瘤核,用子宮肌瘤螺旋鉆刺入瘤體或抓鉗抓住肌瘤固定并牽拉,用剝離棒分離肌瘤包膜到達基底部后電凝切斷,注意不要穿透子宮內膜;如果肌瘤過大已影響到操作,用電動組織粉碎器切除肌瘤部分后再剝離;根據創面選擇單或雙層縫合,首先縫合內1/2肌層關閉瘤腔,再縫合外1/2漿膜層。如果術中發現穿透黏膜層并到達宮腔,要先縫合黏膜層后,再縫合剩余肌層及漿膜層。闊韌帶肌瘤的周圍組織疏松、血運豐富,打開闊韌帶前后葉分離肌瘤時,采用連續縫合法關閉瘤腔,注意不要損傷子宮動脈及輸尿管。切除后的肌瘤采用粉碎取出法,沖洗盆腔,檢查無活動性出血后關腹。

          (2)對照組:開腹組采用連續硬膜外麻醉,按常規手術方法進行子宮肌瘤剔除術。

          1.3 統計方法:實驗數據使用SPSS14.0統計軟件進行分析,計數資料采用檢驗,計量資料采用t檢驗,以P

          2 結果

          2.1 2組術后恢復情況的比較:具體見下附表,可見治療組手術時間、術后排氣時間以及住院天數明顯少于開腹組,差異具有統計學意義。

          附表 2組術后恢復情況的比較組別

          2.2 2組術后并發癥的比較:治療組腹壁戳孔出血2例,對照組出現切口出血1例,經比較,值=0.256,P=0.613>0.05。治療組戳孔感染1例,對照組出現切口感染6例,經比較,值=4420,P=0.036

          3 討論

          子宮已經被許多臨床研究證實具有內分泌功能,與卵巢功能密切聯系,既往對子宮肌瘤過大的患者,多選擇子宮切除術,隨著女性對自身生活質量的要求,許多患者都要求保留子宮。腹腔鏡手術具有切口小、創傷小及恢復快的優點,廣泛運用于臨床,但是目前臨床上對肌瘤數量>4個、直徑>6cm的患者,認為不宜在腹腔鏡下進行[3,4]。其危險在于:肌瘤過大,尤其是位于宮頸、闊韌帶或子宮下段等部位時,會因為解剖結構變異,易損傷輸尿管、膀胱及子宮血管;手術時間延長、創面大,出血較多[5]。隨著腹腔鏡技術及設備的發展,腹腔鏡適應癥拓寬,腹腔鏡巨大肌瘤的剔除是安全可行的。 本次研究中,我們對研究患者行腹腔鏡子宮巨大肌瘤剔除術,全部安全切除,并與開腹手術患者比較,術后排氣時間以及住院天數明顯少于開腹組,差異具有統計學意義;同時治療組腹壁切口出血的發生率與對照組比較,差異沒有統計學意義,切口感染的發生率低于對照組,差異具有統計學意義,可見腹腔鏡子宮巨大肌瘤剔除術是安全可行的,充分發揮了腹腔鏡的巨大優勢。

          我們總結,腹腔鏡下巨大子宮肌瘤剔除術主要技術關鍵:①選擇合適的手術切口:子宮下段后壁縱長形肌瘤宜選用縱切口;子宮前壁、宮頸段、闊韌帶肌瘤或子宮后壁位置偏高的肌瘤選用橫切口,與子宮的弓形血管走行一致,可有效減少出血[6];子宮旁及闊韌帶肌瘤,在肌瘤外突的方向選擇前或后切口,前方切口需將膀胱腹膜反折剪開以推開膀胱,后方切口要仔細辨認輸尿管的走向,當解剖層次顯示不清時,不要輕易的使用電凝,以免誤傷輸尿管。②對于肌瘤的剝離,選擇肌瘤的中央隆起處切開肌瘤包膜后,顯露瘤核,由于肌瘤過大,視野會受限,可旋切部分肌瘤,后再剝離肌瘤,在肌瘤根部要注意血管,可以用線圈套扎肌瘤基底部血供[7]。③肌瘤切除后,盡快縫合創面,縫合時避免誤扎子宮動脈及輸尿管,切除肌瘤后,可靜脈滴注縮宮素,減少出血[8]。此外,腹腔鏡巨大子宮肌瘤剔除術要把握適應癥,我們總結:盆腔沒有粘連,肌瘤直徑控制在8~12cm,巨大肌瘤不要超過1個。

          綜上,腹腔鏡子宮巨大肌瘤剔除術手術難度較大,對技術水平要求高,處理不當可導致出血過多,手術時間過長,導致嚴重的并發癥,因此,要充分評估術中可能出現的風險,掌握合適的手術指征,把握術中關鍵,腹腔鏡子宮巨大肌瘤剔除術是安全可行的。

          參考文獻

          [1] Bachmann G.Expanding treatment options for women with symptomatie uterine leiomyomas:timely medical breakthroughs[J].Fertil Steril,2006,85(1):46~47

          [2] HarKKi,KurKi Ts,Ijoberg J,et al.Safety aspects of laparoseopic hysterectomy [J].Acta Obstet Gynecol Stand,2001,80(5):383~391

          [3] 劉陶,蘇醒,劉晴.腹腔鏡下大子宮肌瘤剔除術82例手術探討[J].中國微刨外科雜志,2008,8(3);208~210

          [4] 焦海寧,蔡蕾,喇端端.腹腔鏡子宮大肌瘤挖除術243例臨床分析[J].上海交通大學學報(醫學版),2008,28(12):1600~1602

          [5] 王麗英,李斌.較困難的腹腔鏡子官肌瘤剔除術:附142例臨床報告[J].中國微創外科雜志,2009,9(5):456~458

          [6] ParKer WH.Laparoscopic myomectomy and abdominal myomectomy [J].ain obstet Gyneool,2006,49(4):789~797