PolarDB MySQL SQL 优化指南 (SQL优化系列 5)

发布于:2025-09-14 ⋅ 阅读:(23) ⋅ 点赞:(0)

开头还是介绍一下群,如果感兴趣PolarDB ,MongoDB ,MySQL ,PostgreSQL ,Redis, OceanBase, Sql Server等有问题,有需求都可以加群群内有各大数据库行业大咖,可以解决你的问题。加群请联系 liuaustin3 ,(共3300人左右 1 + 2 + 3 + 4 +5 + 6 + 7 + 8 +9)(1 2 3 4 5 6 7群均已爆满,开8群近400 9群 200+,开10群PolarDB专业学习群100+)

PolarDB for MySQL 云原生数据库的SQL优化,这集一定有人说,和MySQL优化有区别吗?你把那个吗去了,一样我写他做什么。尤其现在大部分人还都不明白,云原生和线下数据库的区别的当今,更应该让更多的人,知道云原生的数据库优化的手段和方法。

这里也有四句真言,针对PolarDB for MySQL的SQL优化。

PolarDB的优化,方法多来,眼缭乱。 如若只会MYSQL,那你还的,勤学习, 行列,并行加参数,优化那是手法多, 架构拆分加代理,开发还要懂拆分。

这里我们先从第一个特性来说,读写分离。说到MySQL的读写分离,一言难尽就凭着BINLOG解析日志,产生REDO在从库的重新生成数据的方式,读写分离在MySQL中就不是一个好的方案,只能叫个方案。

但在PolarDB for MySQL中则不是,完全可以利用多个从节点,将select 的语句分流到只读节点上,因为PolarDB for MySQL可以做到读写分离中的读节点和写节点的数据是一致的,这是通过软硬兼施的方案,实现的功能。PolarDB 会智能的评判那个从节点性能更好,将SQL打入到从节点本身。

那么在掌握了MySQL的基本SQL优化手段这个咱们不提了,咱们今天只说PolarDB for MySQL 自己的优化方式。

下面详细讲一下代理,这里有几个地方需要解释 1 事务全拆分,这里我之前因为这个事情和PolarDB的负责这块的负责人有过争论,事实上我还是用老的MySQL的代理的思路去想这个事情,提出事务拆分会导致业务逻辑错误,但实时上不会,这块的负责人周老师给我解释。

1 PolarDB 的代理在协调SQL读取数据,完全会评判数据在不在从库,如果不在哪怕是事务全拆分,也不会有读不到,或者由于时间的问题读错的问题。

2 设置中玩意有超大事务,可以系统可以自动选择从主库读,只要你上面选择了主库是否接受读。

但得到的性能优势是显而易见的,把大事务全部拆分,里面的各种 select 可能会打散到多个只读节点,那么一个节点的性能瓶颈就不存在了。

代理设置
代理设置

同时在开启连接池,会大大降低PolarDB建立和释放连接的问题,连接会复用,大大降低内存的碎片和消耗。

第二个如何优化PolarDB for MySQL的查询方面的参数。这里我们先列出一些参数,然后我们在用案例去讲 PolarDB 独有的优化方式。我们将在文尾,将能统计的优化SQL的PolarDB参数进行列表。

这里我们举几个例子关于设置PolarDB 并行查询的例子

1  loose_max_parallel_degree 这个参数是设置每个SQL可以用到的并行,默认是0,通过PolarDB自己控制,具体的设置可以根据CPU的数量来进行调整。但调整过大的max_parallel_degree 会造成一个问题。

产生并行的SQL都是大型的SQL,而调大的情况下,会导致CPU资源不足,尤其在大SQL并行运行很多的情况下。

2 loose_cost_threshold_for_parallelism 这个参数是调整启用并行的标准,每个PolarDB启用并行是有cost标准的,这里默认是50000,具体可以根据自身的情况调整大或小。

这两个参数之间的关系是,如果你将cost调整小,会积极触发SQL并行,同时如果你的max_parallel_degree 调整的过大,会导致CPU不足的情况,反之如果Cost调大,max_parallel_degree 调整的小了,将对于并发高,大型SQL高的情况有利,但会造成部分SQL无法使用并行的情况,

3 loose_max_parallel_workers

这个参数是意义和上面的不同,这是一个池的概念,也就是假设我有 64个CPU的PolarDB 我想这里不想把所有的CPU都给SQL作为并行使用,这里我可以设置 loose_max_parallel_workers = 32, 这里是告知系统,只有32个CPU参与SQL并行,其他的32个不参与并行计算。

在CPU更多的情况下,可以保证不会有超越性能极限的情况下的CPU进入并行资源池。

我们下面通过一个例子来查看启用并行后的情况,在SQL中先禁止并行,然后在打开并行的对比。

DELIMITER $$
CREATE DEFINER=`polar_admin`@`%` PROCEDURE `sp_load_test_data`()
BEGIN
    -- ====== 必须先声明变量(DECLARE 必须在 BEGIN 后最前面) ======
    DECLARE v_users INT DEFAULT 100000;        -- 最小表 100k
    DECLARE v_products INT DEFAULT 200000;     -- 产品 200k
    DECLARE v_customers INT DEFAULT 500000;    -- customers 500k
    DECLARE v_order_items INT DEFAULT 300000;  -- order_items 300k
    DECLARE v_orders INT DEFAULT 10000000;     -- orders 10M (最大表)

    -- ====== 会话级超时设置,防止客户端/连接断开 ======
    SET SESSION net_write_timeout    = 600;
    SET SESSION net_read_timeout     = 600;
    SET SESSION wait_timeout         = 28800;
    SET SESSION interactive_timeout  = 28800;
    SET SESSION MAX_EXECUTION_TIME   = 0;

    -- ====== 清理旧表(先删 seq_numbers 再建,避免重复) ======
    DROP TABLE IF EXISTS seq_numbers;
    DROP TABLE IF EXISTS order_items;
    DROP TABLE IF EXISTS orders;
    DROP TABLE IF EXISTS customers;
    DROP TABLE IF EXISTS products;
    DROP TABLE IF EXISTS users;

    -- ====== 建表:5 张表(无外键),含索引与 AUTO_INCREMENT ======
    CREATE TABLE users (
        user_id BIGINT AUTO_INCREMENT PRIMARY KEY,
        user_name VARCHAR(100),
        email VARCHAR(150),
        country VARCHAR(50),
        INDEX idx_email (email),
        INDEX idx_country (country)
    ) ENGINE=InnoDB;

    CREATE TABLE products (
        product_id BIGINT AUTO_INCREMENT PRIMARY KEY,
        product_name VARCHAR(200),
        category VARCHAR(100),
        price DECIMAL(10,2),
        INDEX idx_category (category),
        INDEX idx_price (price)
    ) ENGINE=InnoDB;

    CREATE TABLE customers (
        customer_id BIGINT AUTO_INCREMENT PRIMARY KEY,
        customer_name VARCHAR(200),
        city VARCHAR(100),
        phone VARCHAR(50),
        INDEX idx_city (city)
    ) ENGINE=InnoDB;

    CREATE TABLE orders (
        order_id BIGINT AUTO_INCREMENT PRIMARY KEY,
        customer_id BIGINT,
        order_date DATETIME,
        status VARCHAR(50),
        INDEX idx_customer (customer_id),
        INDEX idx_order_date (order_date)
    ) ENGINE=InnoDB;

    CREATE TABLE order_items (
        item_id BIGINT AUTO_INCREMENT PRIMARY KEY,
        order_id BIGINT,
        product_id BIGINT,
        quantity INT,
        price DECIMAL(10,2),
        INDEX idx_order (order_id),
        INDEX idx_product (product_id)
    ) ENGINE=InnoDB;

    -- ====== 生成序列表 seq_numbers(1..10,000,000) ======
    -- 说明:用 7 次 digits CROSS JOIN 生成 10^7 行,再 LIMIT 10000000
    CREATE TABLE seq_numbers (n INT PRIMARY KEY) ENGINE=InnoDB;

    /* 初始化用户变量并填充 seq_numbers 到 10,000,000(一次性生成)
       注意:此语句会产生大量行并占用资源,执行时间视实例规格而定 */
    INSERT INTO seq_numbers (n)
    SELECT @row := @row + 1 AS n
    FROM
      (SELECT 0 d UNION ALL SELECT 1 UNION ALL SELECT 2 UNION ALL SELECT 3 UNION ALL SELECT 4 UNION ALL SELECT 5 UNION ALL SELECT 6 UNION ALL SELECT 7 UNION ALL SELECT 8 UNION ALL SELECT 9) a
    CROSS JOIN (SELECT 0 d UNION ALL SELECT 1 UNION ALL SELECT 2 UNION ALL SELECT 3 UNION ALL SELECT 4 UNION ALL SELECT 5 UNION ALL SELECT 6 UNION ALL SELECT 7 UNION ALL SELECT 8 UNION ALL SELECT 9) b
    CROSS JOIN (SELECT 0 d UNION ALL SELECT 1 UNION ALL SELECT 2 UNION ALL SELECT 3 UNION ALL SELECT 4 UNION ALL SELECT 5 UNION ALL SELECT 6 UNION ALL SELECT 7 UNION ALL SELECT 8 UNION ALL SELECT 9) c
    CROSS JOIN (SELECT 0 d UNION ALL SELECT 1 UNION ALL SELECT 2 UNION ALL SELECT 3 UNION ALL SELECT 4 UNION ALL SELECT 5 UNION ALL SELECT 6 UNION ALL SELECT 7 UNION ALL SELECT 8 UNION ALL SELECT 9) d
    CROSS JOIN (SELECT 0 d UNION ALL SELECT 1 UNION ALL SELECT 2 UNION ALL SELECT 3 UNION ALL SELECT 4 UNION ALL SELECT 5 UNION ALL SELECT 6 UNION ALL SELECT 7 UNION ALL SELECT 8 UNION ALL SELECT 9) e
    CROSS JOIN (SELECT 0 d UNION ALL SELECT 1 UNION ALL SELECT 2 UNION ALL SELECT 3 UNION ALL SELECT 4 UNION ALL SELECT 5 UNION ALL SELECT 6 UNION ALL SELECT 7 UNION ALL SELECT 8 UNION ALL SELECT 9) f
    CROSS JOIN (SELECT 0 d UNION ALL SELECT 1 UNION ALL SELECT 2 UNION ALL SELECT 3 UNION ALL SELECT 4 UNION ALL SELECT 5 UNION ALL SELECT 6 UNION ALL SELECT 7 UNION ALL SELECT 8 UNION ALL SELECT 9) g
    CROSS JOIN (SELECT @row := 0) r
    LIMIT 10000000;  -- 固定生成 10,000,000 个序号

    -- ====== 批量插入:从 seq_numbers 中取前 N 条,避免逐行插入 ======
    -- users 100,000
    INSERT INTO users (user_name, email, country)
    SELECT CONCAT('user_', n),
           CONCAT('user_', n, '@example.com'),
           ELT(1 + FLOOR(RAND()*5), 'China','USA','UK','Germany','India')
    FROM seq_numbers
    WHERE n <= 100000;

    -- products 200,000
    INSERT INTO products (product_name, category, price)
    SELECT CONCAT('product_', n),
           ELT(1 + FLOOR(RAND()*8), 'Electronics','Books','Clothing','Food','Sports','Home','Beauty','Toys'),
           ROUND(RAND()*1000, 2)
    FROM seq_numbers
    WHERE n <= 200000;

    -- customers 500,000
    INSERT INTO customers (customer_name, city, phone)
    SELECT CONCAT('customer_', n),
           ELT(1 + FLOOR(RAND()*6), 'Beijing','Shanghai','Shenzhen','Guangzhou','NewYork','London'),
           CONCAT('1', LPAD(FLOOR(RAND()*1000000000), 10, '0'))
    FROM seq_numbers
    WHERE n <= 500000;

    -- orders 10,000,000 (可能耗时,依赖 seq_numbers 生成的大序列)
    INSERT INTO orders (customer_id, order_date, status)
    SELECT
      1 + FLOOR(RAND() * 500000),  -- random customer id within 1..500k
      DATE_SUB(NOW(), INTERVAL FLOOR(RAND()*3650) DAY), -- 随机近10年日期
      ELT(1 + FLOOR(RAND()*4), 'PENDING','PAID','SHIPPED','CANCELLED')
    FROM seq_numbers
    WHERE n <= 10000000;

    -- order_items 300,000
    INSERT INTO order_items (order_id, product_id, quantity, price)
    SELECT
      1 + FLOOR(RAND() * 10000000),  -- random order id within 1..10M
      1 + FLOOR(RAND() * 200000),    -- random product id within 1..200k
      1 + FLOOR(RAND() * 10),
      ROUND(RAND()*500, 2)
    FROM seq_numbers
    WHERE n <= 300000;

    -- ====== 可选:删除 seq_numbers(若希望释放空间) ======
    -- DROP TABLE IF EXISTS seq_numbers;

END$$
DELIMITER ;

通过存储过程,我们产生测试表和数据。

通过执行固定的SQL语句,在不添加任何优化措施的情况下,我们查看通过并行打开后的结果差

分别是不打开并行,打开4个并行,打开2个并行

打开并行
打开并行

从上图,开启4个并行后,执行时间比不开启并行速度要快 32%,开启两个并行快 29%。

这里可以得出,开启并行后,的确比不开要快,但开启过多的并行并未得到更快线性的速度提升。

EXPLAIN ANALYZE
SELECT /*+ PARALLEL(4) */
    u.user_id,
    u.user_name,
    COUNT(o.order_id) AS total_orders,
    SUM(oi.quantity * p.price) AS total_amount
FROM users u
JOIN orders o
    ON u.user_id = o.customer_id
JOIN order_items oi
    ON o.order_id = oi.order_id
JOIN products p
    ON oi.product_id = p.product_id
GROUP BY u.user_id, u.user_name
ORDER BY total_amount DESC
LIMIT 10;

在四句真言里面还有一个部分是列式,如果我们打开列式的情况下,这个SQL能在提速吗?我们在进行测试。

![列式节点](https://files.mdnice.com/user/47359/beb85a98-de30-4f4b-9f44-ccf994371369.png)
不优化的情况下,添加列式索引

大家可以看上图,在PolarDB for MySQL不进行任何的特殊优化,还是刚才那个语句,速度直接从3.4秒,变成了0.015秒,仅仅是对这些表添加了列式索引。速度提升了227倍。

use  test;
-- ============================
-- 1. users 表
-- ============================
ALTER TABLE users COMMENT 'COLUMNAR=1';

ALTER TABLE users 
MODIFY COLUMN user_id INT COMMENT 'COLUMNAR=1',
MODIFY COLUMN user_name VARCHAR(50) COMMENT 'COLUMNAR=1';

-- ============================
-- 2. orders 表
-- ============================
ALTER TABLE orders COMMENT 'COLUMNAR=1';

ALTER TABLE orders
MODIFY COLUMN order_id INT COMMENT 'COLUMNAR=1',
MODIFY COLUMN customer_id INT COMMENT 'COLUMNAR=1';

-- ============================
-- 3. order_items 表
-- ============================
ALTER TABLE order_items COMMENT 'COLUMNAR=1';

ALTER TABLE order_items
MODIFY COLUMN order_id INT COMMENT 'COLUMNAR=1',
MODIFY COLUMN product_id INT COMMENT 'COLUMNAR=1',
MODIFY COLUMN quantity INT COMMENT 'COLUMNAR=1';

-- ============================
-- 4. products 表
-- ============================
ALTER TABLE products COMMENT 'COLUMNAR=1';

ALTER TABLE products
MODIFY COLUMN product_id INT COMMENT 'COLUMNAR=1',
MODIFY COLUMN price DECIMAL(10,2) COMMENT 'COLUMNAR=1';

到这里前面的两句算是解释完毕,一句话,科技改变MySQL的SQL语句执行。

列式节点
列式节点

剩下还有PolarDB的本身的一些优化方式和方法,这里也总结一下,查询改写子查询,IN的谓词转成JOIN,子查询解关联,连接条件可下推。

这里我们通过一张图来说明
这里我们通过一张图来说明

由于内容太多,今天我们只挑选其中的一条连接条件下推来说说POLARDB for mysql的优化部分,首先必须是8.02版本,且是2.10版本以上的PolarDB.原理是,将驱动表外层的链接条件下推到驱动表内部,使得驱动表内部的执行计划更高效的利用索引,从而大幅度提升查询性能,

要打开这个性能的开会需要从loose_polar_optimizer_switch 中的 'join_predicate_pushdown=ON'。loose_join_predicate_pushdown_opt_mode

优化
优化
添加两个参数
添加两个参数

'join_predicate_pushdown=ON,loose_join_predicate_pushdown_opt_mode=replica_on'

这部分的原理是驱动表与被驱动表中的条件过滤的问题,我们看下面的案例

--优化前
SELECT *
FROM (
  SELECT *
  FROM sample_table.tb_order
  WHERE create_date >= DATE_SUB(CAST('2022-12-05 15:12:05' AS datetime), INTERVAL 5 MINUTE)
    AND product_type IN (2, 4)
) o
  LEFT JOIN (
    SELECT *
    FROM sample_table.tb_order_detailed
    WHERE update_time >= DATE_SUB('2022-12-05 15:12:05', INTERVAL 50 MINUTE)
  ) od
  ON o.order_id = od.order_id
  LEFT JOIN (
    SELECT t.*, row_number() OVER (PARTITION BY detail_id ORDER BY update_date DESC) AS rn
    FROM sample_table.tb_order_sku t
    WHERE update_date >= DATE_SUB('2022-12-05 15:12:05', INTERVAL 50 MINUTE)
      AND coalesce(product_type, '0') <> '5'
  ) os
  ON od.id = os.detail_id;

  ---优化后
  SELECT *
FROM (
  SELECT *
  FROM db_order.tb_order
  WHERE create_date >= DATE_SUB(CAST('2022-12-05 15:12:05' AS datetime), INTERVAL 5 MINUTE)
    AND product_type IN (2, 4)
) o
  LEFT JOIN (
    SELECT *
    FROM db_order.tb_order_detailed
    WHERE update_time >= DATE_SUB('2022-12-05 15:12:05', INTERVAL 50 MINUTE)
  ) od
  ON o.order_id = od.order_id
  LEFT JOIN LATERAL((
    SELECT t.*, row_number() OVER (PARTITION BY detail_id ORDER BY update_date DESC) AS rn
    FROM db_order.tb_order_sku t
    WHERE update_date >= DATE_SUB('2022-12-05 15:12:05', INTERVAL 50 MINUTE)
      AND coalesce(product_type, '0') <> '5'
      AND od.id = detail_id
  )) os;

上面的查询已经演示了,如果开启上面的查询特殊的功能后, AND od.id = detail_id 将推入到本身OS查询的内部,来提前过滤数据。SQL的执行效率会大大提升。

至于其他的优化方法和参数我们在找时间单独去书,到这里PolarDB的 SQL优化方法相对MySQL本身丰富多,这就直接让MySQL可以支持更多丰富的复杂得SQL的计算,为复杂的应用撰写复杂的SQL,且高效运行提供了条件,且不用去大量的改写SQL。

置顶

IF-Club 你提意见拿礼物 AustinDatabases 破 10000

开发欺负我 Redis  的大 keys的问题,我一个DBA怎么解决?

云基座技术是大厂专有,那小厂和私有云的出路在哪里?

MongoDB 查询 优化指南  四句真言 (查询 优化系列 4)

沧海要,《SQL SERVER 运维之道》,清风笑,竟惹寂寥

MySQL SQL 优化指南 SQL 四句真言(优化系列 3)

沧海要,《SQL SERVER 运维之道》,清风笑,竟惹寂寥

SQL SERVER SQL 优化指南  四句真言 (SQL 优化系列 2)

PostgreSQL SQL 优化指南 四句真言(SQL 优化系列 1)

从 Universal 环球影城 到 国产数据库产品 营销 --驴唇对马嘴

3种方式 PG大版本升级  接锅,背锅,不甩锅  以客户为中心做产品

"PostgreSQL" 不重启机器就能调整 shared buffer pool  的原理

超强外挂让MySQL再次兴盛,国内神秘组织拯救MySQL行动

AI 很聪明,但就怕脑子失忆,记忆对AI很重要

从某数据库信任“危机”,简谈危机公关

邦邦硬的PostgreSQL技术干货来了,怎么动态扩展PG内存 !

数据库信创话题能碰吗? 今天斗胆说说

企业出海数据库设计问题一角,与政策动荡下的全球数据库产品

计问题一角,与政策动荡下的全球数据库产品

《数据库江湖邪修门派:心法五式全解》

微软动手了,联合OpenAI + Azure 云争夺AI服务市场

“当复杂的SQL不再需要特别的优化”,邪修研究PolarDB for PG 列式索引加速复杂SQL运行

企业出海“DB”要合规,要不挣那点钱都不够赔的

“合体吧兄弟们!”——从浪浪山小妖怪看OceanBase国产芯片优化《OceanBase “重如尘埃”之歌》

未知黑客通过SQL SERVER 窃取企业SAP核心数据,影响企业运营

那个MySQL大事务比你稳定,主从延迟低,为什么? Look my eyes! 因为宋利兵宋老师

非“厂商广告”的PolarDB课程:用户共创的新式学习范本--7位同学获奖PolarDB学习之星

      说我PG Freezing Boom 讲的一般的那个同学,专帖给你,看看这次可满意

     短评 国产数据库营销市场 “问题”

     这个 PostgreSQL 让我有资本找老板要 鸡腿 鸭腿 !!

     DBA被瞧不起 你有什么建议? Drive Fast !

OceanBase Hybrid search 能力测试,平换MySQL的好选择

HyBrid Search 实现价值落地,从真实企业的需求角度分析 !不只谈技术!

一个IP地址访问两个PG实例,上演“一女嫁二夫”的戏码

OceanBase 光速快递 OB Cloud “MySQL” 给我,Thanks a lot

从“小偷”开始,不会从“强盗”结束 -- IvorySQL 2025 PostgreSQL 生态大会

被骂后的文字--技术人不脱离思维困局,终局是个 “死” ? ! ......

个群2025上半年总结,OB、PolarDB, DBdoctor、爱可生、pigsty、osyun、工作岗位等

卷呀卷,Hybrid 混合查询学习--哪个库是小趴菜

从MySQL不行了,到乙方DBA 给狗,狗都不干? 我干呀!

DBA 干不好容易蹲牢房--这事你知道吗?

SQL SERVER 2025发布了, China幸亏有信创!

MongoDB 麻烦专业点,不懂可以问,别这么用行吗 ! --TTL

P-MySQL SQL优化案例,反观MySQL不死没有天理

MySQL 条件下推与排序优化实例--MySQL8.035

云数据库厂商除了卷技术,下一个阶段还可以卷什么?

PostgreSQL 新版本就一定好--由培训现象让我做的实验

某数据库下的一手好棋!共享存储落子了!

删除数据“八扇屏” 之 锦门英豪  --我去-BigData!

PostgreSQL “乱弹” 从索引性能到开发优化

写了3750万字的我,在2000字的OB白皮书上了一课--记 《OceanBase 社区版在泛互场景的应用案例研究》

SQLSHIFT 是爱可生对OB的雪中送炭!

青春的记忆,MySQL 30年感谢有你,再见!(译)

老实人做的数据库产品,好像也不“老实” !

疯狂老DBA 和 年轻“网红” 程序员 --火星撞地球-- 谁也不是怂货  

哈呀站,OB广州开发者大会 之 “五” 眼联盟

和架构师沟通那种“一坨”的系统,推荐只能是OceanBase,Why ?

OceanBase 相关文章

某数据库下的一手好棋!共享存储落子了!

写了3750万字的我,在2000字的OB白皮书上了一课--记 《OceanBase 社区版在泛互场景的应用案例研究》

     哈呀站,OB广州开发者大会 之 “五” 眼联盟

OceanBase 单机版可以大批量快速部署吗? YES

OceanBase 6大学习法--OBCA视频学习总结第六章

OceanBase 6大学习法--OBCA视频学习总结第五章--索引与表设计

OceanBase 6大学习法--OBCA视频学习总结第五章--开发与库表设计

OceanBase 6大学习法--OBCA视频学习总结第四章 --数据库安装

OceanBase 6大学习法--OBCA视频学习总结第三章--数据库引擎

OceanBase 架构学习--OB上手视频学习总结第二章 (OBCA)

OceanBase 6大学习法--OB上手视频学习总结第一章

没有谁是垮掉的一代--记 第四届 OceanBase 数据库大赛

OceanBase  送祝福活动,礼物和幸运带给您

跟我学OceanBase4.0 --阅读白皮书 (OB分布式优化哪里了提高了速度)

跟我学OceanBase4.0 --阅读白皮书 (4.0优化的核心点是什么)

跟我学OceanBase4.0 --阅读白皮书 (0.5-4.0的架构与之前架构特点)

跟我学OceanBase4.0 --阅读白皮书 (旧的概念害死人呀,更新知识和理念)

聚焦SaaS类企业数据库选型(技术、成本、合规、地缘政治)

OceanBase 学习记录-- 建立MySQL租户,像用MySQL一样使用OB
         MongoDB 相关文章

MongoDB “升级项目” 大型连续剧(4)-- 与开发和架构沟通与扫尾

MongoDB “升级项目” 大型连续剧(3)-- 自动校对代码与注意事项

MongoDB “升级项目” 大型连续剧(2)-- 到底谁是"der"

MongoDB “升级项目”  大型连续剧(1)-- 可“生”可不升

MongoDB  大俗大雅,上来问分片真三俗 -- 4 分什么分

MongoDB 大俗大雅,高端知识讲“庸俗” --3 奇葩数据更新方法

MongoDB 学习建模与设计思路--统计数据更新案例

MongoDB  大俗大雅,高端的知识讲“通俗” -- 2 嵌套和引用

MongoDB  大俗大雅,高端的知识讲“低俗” -- 1 什么叫多模

MongoDB 合作考试报销活动 贴附属,MongoDB基础知识速通

MongoDB 年底活动,免费考试名额 7个公众号获得

MongoDB 使用网上妙招,直接DOWN机---清理表碎片导致的灾祸 (送书活动结束)

MongoDB 2023年度纽约 MongoDB 年度大会话题 -- MongoDB 数据模式与建模

MongoDB  双机热备那篇文章是  “毒”

MongoDB   会丢数据吗?在次补刀MongoDB  双机热备

MONGODB  ---- Austindatabases  历年文章合集

PolarDB 已经开放的课程

PolarDB 非官方课程第八节--数据库弹性弹出一片未来--结课

PolarDB 非官方课程第七节--数据备份还原瞬间完成是怎么做到的--答题领奖品

PolarDB 非官方课程第六节--数据库归档还能这么玩--答题领奖品

PolarDB 非官方课程第五节--PolarDB代理很重要吗?--答题领奖品

PolarDB 非官方课程第四节--PG实时物化视图与行列数据整合处理--答题领奖品

PolarDB 非官方课程第三节--MySQL+IMCI=性能怪兽--答题领奖品

PolarDB 非官方课程第二节--云原生架构与特有功能---答题领奖品

PolarDB 非官方课程第一节-- 用户角度怎么看PolarDB --答题领奖品

免费PolarDB云原生课程,听课“争”礼品,重塑云上知识,提高专业能力

PolarDB 相关文章

数据压缩60%让“PostgreSQL” SQL运行更快,这不科学呀?

这个 PostgreSQL 让我有资本找老板要 鸡腿 鸭腿 !!

用MySQL 分区表脑子有水!从实例,业务,开发角度分析 PolarDB 使用不会像MySQL那么Low

P-MySQL SQL优化案例,反观MySQL不死没有天理

MySQL 和 PostgreSQL 可以一起快速发展,提供更多的功能?

这个MySQL说“云上自建的MySQL”都是”小垃圾“

        PolarDB MySQL 加索引卡主的整体解决方案

“PostgreSQL” 高性能主从强一致读写分离,我行,你没戏!

PostgreSQL 的搅局者问世了,杀过来了!

在被厂商围剿的DBA 求生之路 --我是老油条

POLARDB  添加字段 “卡” 住---这锅Polar不背

PolarDB 版本差异分析--外人不知道的秘密(谁是绵羊,谁是怪兽)

在被厂商围剿的DBA 求生之路 --我是老油条

PolarDB 答题拿-- 飞刀总的书、同款卫衣、T恤,来自杭州的Package(活动结束了)

PolarDB for MySQL 三大核心之一POLARFS 今天扒开它--- 嘛是火

PostgreSQL 相关文章

说我PG Freezing Boom 讲的一般的那个同学专帖给你看这次可满意

一个IP地址访问两个PG实例,上演“一女嫁二夫”的戏码

PostgreSQL  Hybrid能力岂非“小趴菜”数据库可比 ?

PostgreSQL 新版本就一定好--由培训现象让我做的实验

PostgreSQL “乱弹” 从索引性能到开发优化

PostgreSQL  无服务 Neon and Aurora 新技术下的新经济模式 (翻译)

PostgreSQL的"犄角旮旯"的参数捋一捋

PostgreSQL逻辑复制槽功能

PostgreSQL 扫盲贴 常用的监控分析脚本

“PostgreSQL” 高性能主从强一致读写分离,我行,你没戏!

PostgreSQL  添加索引导致崩溃,参数调整需谨慎--文档未必完全覆盖场景

PostgreSQL 的搅局者问世了,杀过来了!

PostgreSQL SQL优化用兵法,优化后提高 140倍速度

PostgreSQL 运维的难与“难”  --上海PG大会主题记录

PostgreSQL 什么都能存,什么都能塞 --- 你能成熟一点吗?

PostgreSQL 迁移用户很简单 ---  我看你的好戏

PostgreSQL 用户胡作非为只能受着 --- 警告他

全世界都在“搞” PostgreSQL ,从Oracle 得到一个“馊主意”开始
PostgreSQL 加索引系统OOM 怨我了--- 不怨你怨谁

PostgreSQL “我怎么就连个数据库都不会建?” --- 你还真不会!

病毒攻击PostgreSQL暴力破解系统,防范加固系统方案(内附分析日志脚本)

PostgreSQL 远程管理越来越简单,6个自动化脚本开胃菜

PostgreSQL 稳定性平台 PG中文社区大会--杭州来去匆匆

PostgreSQL 如何通过工具来分析PG 内存泄露

PostgreSQL  分组查询可以不进行全表扫描吗?速度提高上千倍?

POSTGRESQL --Austindatabaes 历年文章整理

PostgreSQL  查询语句开发写不好是必然,不是PG的锅

PostgreSQL  字符集乌龙导致数据查询排序的问题,与 MySQL 稳定 "PG不稳定"

PostgreSQL  Patroni 3.0 新功能规划 2023年 纽约PG 大会 (音译)

PostgreSQL   玩PG我们是认真的,vacuum 稳定性平台我们有了

PostgreSQL DBA硬扛 垃圾 “开发”,“架构师”,滥用PG 你们滚出 !(附送定期清理连接脚本)

DBA 失职导致 PostgreSQL 日志疯涨

MySQL相关文章

MySQL 条件下推与排序优化实例--MySQL8.035

青春的记忆,MySQL 30年感谢有你,再见!(译)

MySQL 8 SQL 优化两则 ---常见问题

MySQL SQL优化快速定位案例 与 优化思维导图

"DBA 是个der" 吵出MySQL主键问题多种解决方案

MySQL 怎么让自己更高级---从内存表说到了开发方式

MySQL timeout 参数可以让事务不完全回滚

MySQL 让你还用5.7 出事了吧,用着用着5.7崩了

MySQL 的SQL引擎很差吗?由一个同学提出问题引出的实验

用MySql不是MySQL, 不用MySQL都是MySQL 横批 哼哼哈哈啊啊

MYSQL  --Austindatabases 历年文章合集

临时工访谈系列

没有谁是垮掉的一代--记 第四届 OceanBase 数据库大赛

ETL 行业也够卷,云化ETL,ETL 软件不过了

SQL SERVER 系列

SQL SERVER维保AI化,从一段小故事开始

SQL SERVER 如何实现UNDO REDO 和PostgreSQL 有近亲关系吗

SQL SERVER 危险中,标题不让发,进入看详情(译)


网站公告

今日签到

点亮在社区的每一天
去签到