wesgi實現了ESI處理器作為WSGI middeware 它的主要目的是開發環境,模擬生產ESI處理器。
相關規範和文件:
- http://www.w3.org/TR/esi-lang
- http://www.akamai.com/dl/technical_publications/esi_faq.pdf
完整性
此實現目前只實現了
性能
實際上,在標準的Python,WSGI中間件是同步的。對於ESI處理器達到非常高的水平的性能,它可能是必要為它是異步的。這可能使一個上限這個中間件的性能比較。
然而,視情況而定,它可能是高性能足夠。
用法:
 從>>>進口wesgi中間件
 從>>>進口wsgiref.simple_server demo_app
使用它在一個發展的服務器時,它的默認配置:
  >>>程序=中間件(demo_app)
為了模擬Akamai的生產環境:
  >>>程序=的中間件(demo_app,政策='Akamai的')
為了模擬Akamai的生產環境“追重定向”開啟:
 從>>>進口wesgi AkamaiPolicy
  >>>政策= AkamaiPolicy()
  >>> policy.chase_redirect = TRUE
  >>>程序=的中間件(demo_app,政策=策略)
如果你想用它來生產服務器,它的最好關閉調試模式關閉:
  >>>程序=的中間件(demo_app,調試= FALSE)
什麼是此版本的新:
- 在功能
- 添加wesgi.filter_app_factory可用於通過粘貼配置wesgi作為filter_app_factory。
- 系統max_object_size選項wesgi.LRUCache限制存儲對象的最大尺寸。
- 主要重構使用httplib2的作為後端得到ESI包括。這隨之帶來的HTTP緩存。
- 在wesgi.LRUCache基於內存的實現LRU緩存algoritm的。
- 在處理ESI的意見。
- 錯誤修正:
- 修正的bug,其中正則表達式查找SRC:包括可能需要很長的時間
- 嘆息。添加MANIFEST.in所以必要的文件結束在壓縮包。
什麼是0.8版本的新:
- 對於一個wesgi.LRUCache選項max_object_size限制的最大尺寸存儲對象。
要求:
- 在Python的
評論沒有發現